コンピュータモニターに表示された回路パターンとリフレッシュ矢印が描かれたデジタル脳と女性がやり取りしている平面的なイラスト。AIや機械学習、データ処理、継続的な最適化を象徴。

エージェント型推論: 自律型AIの意思決定を支えるエンジン

エージェント型推論により、AIは目標を細分化して、エラーを自己修正し、特定の成果達成に向けて計画を動的に調整することができます。

標準LLM出力と エージェント型プロセスの比較

機能 標準LLMの応答 エージェント型推論ワークフロー
論理パス 直線的な/単一のパス 反復/ループ
エラー処理 ハルシネーションまたは停止 自己修正および再試行
タスクの複雑さ コンテキストウィンドウに限定 長期的な実行が可能
自律性 人間主導のプロンプト 目標にもとづく独立性

エージェント型推論に関するよくある質問

AIエージェントは、ソフトウェアエンティティであり、タスクを実行する「アクター」です。 エージェント型推論は、認知プロセスであり、AIエージェントがこれらのタスクを計画し実行するために使用する「論理」です。

自己修正には「批評」ループが含まれます。 エージェント型推論システムは、一連のルールや元のプロンプトと生成した出力を比較し、エラーやギャップを特定してから回答を確定します。 Salesforce Atlas推論エンジン内では、自己修正のステップを「グラウンディング」と呼んでいます。AIエージェントはグラウンディングを行ってから、すべての応答を提供します。

多くの場合、複雑なタスクは、複数のステップと外部データを必要とします。 エージェント型推論により、AIは最初の試みが失敗しても、人間の専門家のように方針を転換し、戦略を調整することができます。

はい、必要です。 AIは内部でいくつものドラフトを生成し、複数の「思考」ステップを実行するため、標準的なクエリよりも多くのトークンと計算時間を消費します。 しかし、エージェント型推論の高い計算コストは、運用費用ではなくインフラ投資と見なされるべきです。 先進的な企業は、自動推論ループによって解放された人的リソースが、計算コストを大きく上回る収益創出の機会につながっていると報告しています。

このワークフローの目標は自律ですが、企業への導入においてSalesforceは人間による複数層の監督を強く推奨しています。 Salesforceの特定のAIエージェントのアクションでは、この人間の介入(「人間の介在」と呼ばれることもある)を「必須」に設定でき、AIエージェントがどのタイミングで人間に相談またはエスカレーションすべきかについて、明確なガードレールを設けることができます。 これにより、AIエージェントの推論が組織の目標およびプライバシー基準と一致することを保証できます。

エンタープライレベルのエージェント型システムに必要なのは、洗練されたプロンプトだけではありません。 Salesforceをはじめとする主要なプラットフォームは、プロンプトエンジニアリングのみに依存するのではなく、推論論理の大部分を事前に構成し、構造化フレームワーク(トピックの分類やアクションのオーケストレーションなど)を提供します。 これにより、一貫性のある、予測可能な挙動を保証するとともに、エージェント型推論の柔軟性を確保できます。