youtube版(スライド付き)
関連リンク
- Temporal Workflow で実現する Durable な AI Agent #LayerX_AI_Agent_ブログリレー
この記事は、AI Agentを実際のプロダクトに組み込む際に直面する「長時間実行される処理をいかに安定して動かすか」という課題を、Workflow EngineであるTemporal Workflowを使って解決する方法について、新人エンジニアにも分かりやすく解説しています。
AI Agentとは、与えられた目標に対し、ツールを自律的に使って情報を集めたり、環境に働きかけたりしながらタスクをこなすソフトウェアのことです。例えば、ユーザーの入力に応じて情報を検索し、結果を生成するといった一連の処理を「Agent Loop」と呼びます。
このAgent Loopは、数分から数十分かかる長時間処理になることがよくあります。そのため、途中でネットワークが切れたり、サーバーがダウンしたりすると、処理が中断されてしまい、タスクが完了できないという問題が発生します。また、ツールが何らかの変更を伴う場合、中断された処理を単にやり直すと、データが重複して作成されるなどのバグにつながる恐れもあります。 このような問題を解決し、AI Agentの処理を確実に最後まで実行するには、途中で中断されても再開できる「Durable Execution(耐久性のある実行)」を実現する仕組みが必要です。
そこで登場するのが「Temporal Workflow」です。Temporalは、私たちが普段書くようなコードで一連のタスク(Workflow)を定義できる実行エンジンです。AI AgentのAgent Loopにおける「LLM(大規模言語モデル)に処理をさせる」「ツールを実行する」といった個々のステップをTemporalの「Activity」として実行することで、Workflow全体の状態をTemporalが管理し、万が一処理が中断しても、途中から確実に再開できるようになります。
Temporal Workflowを導入することには、いくつかの大きなメリットがあります。
- 柔軟なタスク実行: AI Agentの処理だけでなく、ファイルアップロード時の前処理や定期実行ジョブなど、様々なバックグラウンドタスクをWorkflowとして組み込めます。
- 外部からの操作に対応: 稼働中のAgentに対して、ユーザーからのメッセージをリアルタイムで受け取ったり(Signalという仕組み)、人の承認が必要なプロセス(Human-in-the-loop: HITL)を簡単に実装したりできます。これにより、ユーザーとの対話がスムーズになります。
- 状態管理の簡素化: Workflowの途中の状態をデータベースなどに明示的に保存する必要がなく、あたかもローカル変数のように扱えるため、開発者は複雑な状態管理に頭を悩ませずに済みます。
- 長時間の待ち状態に対応: 特定の条件が満たされるまで待機したり、排他的に処理を実行したりする機能も標準で備わっており、HITLのような長時間にわたるユーザー操作の待ち受けも安定して行えます。
- バージョン管理: 長時間実行されるWorkflowの実装が変わっても、古いバージョンと新しいバージョンが混在しないよう、バージョニング機能がサポートされており、安心してデプロイできます。
この記事を通じて、AI Agentをプロダクトで活用するためには、AIや機械学習の専門知識だけでなく、Durable Executionの基盤構築、認証認可、評価、監視など、従来のソフトウェアエンジニアリングにおける多くの挑戦があることがわかります。これらは、新人エンジニアにとっても未来の技術の「当たり前」を共に作り上げる絶好の機会となるでしょう。
引用元: https://zenn.dev/layerx/articles/b5f6cf6e47221e
- AIエージェントはSaaSをどう変える?ラクスのR&Dで挑戦した垂直型の可能性
2025年、自律的にタスクを計画・実行する「AIエージェント」の登場は、ソフトウェア開発の世界に大きなインパクトを与えています。ラクス社では、この技術を自社サービスに取り入れ、進化させるために、R&D活動で「垂直型AIエージェント」の調査・研究に取り組みました。
AIエージェントは、ユーザーの指示に基づいて動く従来の生成AIやAIアシスタントとは異なり、与えられた目標に対して自ら計画を立て、状況に応じて判断し行動できるAIです。特に「垂直型AIエージェント」は、特定の業界や業務(ドメイン)に特化することで、高い専門性を発揮します。これにより、専門知識が必要な高度な分析や判断の支援、ルールに基づいた定型業務の自動化、大量データからの予測と最適化といった領域で大きな価値を提供できるため、ラクス社は自社SaaSへの導入を現実的に進めるため、この垂直型に注目しました。
R&D活動では、AIエージェントの自律レベルを「Assist(支援)」「Copilot(副操縦士)」「Autonomous(自律型)」の3段階、さらに6つの機能パターンに分類し、導入のイメージを具体化しました。また、LLM Core(大規模言語モデルの核となる部分)やRAG(外部知識を参照して回答を生成する技術)、外部ツール連携など、AIエージェントを構成する8つの主要な技術要素を整理しました。
「楽楽勤怠」サービスでのPoC(概念実証)では、GoogleのAgent Development Kit (ADK) を使ってシフト自動作成機能を実装し、その可能性を探りました。簡単なワークフローであれば比較的容易に実装できることが確認できた一方、入力データが増えると処理速度が遅くなる性能課題や、より複雑なシフト作成には複数のAIエージェントが連携する「マルチエージェント」構成の必要性、そして本番運用に向けたセキュリティや保守性の重要性といったリアルな課題も明らかになりました。
AIエージェントを実際のサービスに導入する際には、「処理が遅い、精度が低い」といった性能の壁、「API利用料が高額になる」というコストの壁、「プロンプトインジェクション攻撃への対処」などのセキュリティの壁が存在します。これらを乗り越えるためには、モデルの最適化、RAGの精度向上、軽量モデルの活用、不適切な入出力を防ぐガードレール機能、人間の確認・介入といった対策が不可欠です。
今回のプロジェクトで得られた貴重な知見は、「垂直型AIエージェント実装ナレッジベース」として社内のGitHub Wikiにまとめられ、全エンジニアがアクセスできるよう公開されました。これにより、各プロダクトへのAIエージェント導入を加速させ、組織全体の技術力向上を目指しています。ラクス社は今後もこのようなR&D活動を続け、最新技術をSaaSサービスに反映させ、お客様に新たな価値を提供していくとしています。
引用元: https://tech-blog.rakus.co.jp/entry/20250930/AIagent
- Effective context engineering for AI agents
LLM(大規模言語モデル)を活用した開発では、これまで「プロンプトエンジニアリング」が注目されてきました。これは、LLMに効果的な指示(プロンプト)を与えることで、望む結果を引き出す技術です。しかし、近年では、より高度な「コンテキストエンジニアリング」が重要視されています。
コンテキストエンジニアリングとは、LLMが推論に利用できる「コンテキスト(文脈や情報)」全体を最適に管理する技術のことです。単にプロンプトの言葉を選ぶだけでなく、システムプロンプト、ツール、過去の会話履歴、外部データなど、LLMに与えるあらゆる情報を、望ましい挙動を安定して引き出すためにどのように構成すべきかを考えます。
なぜコンテキストエンジニアリングが重要なのでしょうか? LLMは、人間と同じように、与えられる情報量が増えすぎると集中力が散漫になり、重要な情報を見落としたり、記憶力が低下したりする「コンテキスト腐敗(Context Rot)」という現象が起こります。これは、LLMの基礎となっているTransformerという仕組みの特性によるもので、コンテキストの長さが長くなるほど、処理に必要な計算量が爆発的に増え、パフォーマンスが低下する傾向があるためです。つまり、LLMにとってコンテキストは有限で貴重なリソースなのです。
効果的なコンテキストを構築するためには、以下の要素が重要です。
資訊
- 節目
- 頻率每日更新
- 發佈時間2025年9月30日 下午8:00 [UTC]
- 年齡分級兒少適宜