Skip to Content

生成AIで一番ホットな3文字=LLMではない

RAG(検索拡張生成)とは?生成AIで一番ホットな3文字=LLMではない

検索拡張生成(RAG)で生成AIプロンプトを向上させる方法を紹介します。

2023年、カナダを拠点とするアルゴ・コミュニケーションズ(以下アルゴ)は急成長を遂げていますが、カスタマーサービス担当者の迅速な育成に課題を抱えていました。この課題を解決するため、生成AIという斬新なソリューションに目をつけました。

アルゴは、大規模言語モデル(LLM)を採用し、新しいカスタマーサービス担当者の迅速な育成を図りました。そして、顧客の複雑な質問に正確かつ流暢に応えるためには、既製のLLMよりも、より堅牢なものが必要だとアルゴは気付いていました。

無料でAIスキルを高める方法 Trailheadのおすすめ活用法6選

既製のLLMは正確に応えるために必要な特定のビジネスコンテキストが不十分です。そこで、検索拡張生成(RAG: Retrieval Augmented Generation、リトリーバルオーギュメントジェネレーション)が登場します。

これまで私たちは、OpenAIのChatGPTや、GoogleのGemini(旧Bard)のようなツールを通じて、生成AI LLMをすでに使用して、eメールを書いたり、巧みなソーシャルメディアコピーを作っています。

しかし、理想の結果を得ることは必ずしも簡単ではありません。

なぜなら、AIモデルは、教え込まれたものと同じ程度にしか機能しないからです。AIが活躍するためには、適切な文脈と膨大な量の事実データが必要です。既製のLLMは常に最新とは限りませんし、データへの信頼できるアクセス権や顧客との関係を理解することもできません。そこでRAGが役立ちます。

RAGは、企業が最新かつ関連性の高いデータをLLMプロンプトに直接自動的に埋め込むことを可能にするAI技術です。

これは、スプレッドシートや関係データベースのような、構造化データのことだけを言っているのではありません。非構造化データ(eメール、PDF、チャットログ、ソーシャルメディアへの投稿など)を含む、利用可能なすべてのデータを取得することを意味します。

RAGはどのように機能するのか

一言で言えば、RAGは、より良い生成AIの回答を得るために、社内の様々なソースからデータを検索し、利用できるよう支援します。ソースは信頼できる自社のデータのため、ハルシネーション(幻覚。AIがもっともらしいが誤った答えをつくってしまうこと)を減らします。

田中教授が分析。「Salesforceが生成AIでアップデートする世界」とは

この精度の向上を達成するために、RAGはベクトルデータベースと呼ばれる特殊なデータベースと連携して、AIにとって意味のある数値形式でデータを保存し、必要に応じて取得します。

「ベクトルデータベースが機能しなければRAGは機能しません。この2つは密接に関係しています。情報を保存するためのベクトルデータベースと、そのデータに対して機能するように設計された、ある種の機械学習検索メカニズムです」とセールスフォースAIプロダクトマーケティングディレクターのライアン氏は言います。

ベクトルデータベースと連動するRAGは、より良いLLM出力を生成するための強力なツールとなり得ますが、それは特効薬ではありません。ユーザーは、明確なプロンプトを書くための基本を理解しなければなりません。

複雑な質問に対する応答時間の短縮

チャットログや2年分のeメール履歴など、膨大な量の非構造化データをベクトルデータベースに追加した後、アルゴは2023年12月、数名のカスタマーサービス担当者を対象にこのテクノロジーのテストを開始しました。

彼らは、自社製品ベースの約10%という小規模なサンプルセットに取り組みましたが、このツールに慣れるまで約2カ月かかりました。この期間、リーダー陣は、カスタマーサービス担当者がRAGの支援を受けることで、詳細な質問に答えることに対しより大きな自信を得ているのを目の当たりにし、RAGの全社的な展開を開始しました。

コンタクトセンター 生成AI活用の最前線

コンタクトセンター 生成AI活用の最前線

RAGを追加してからわずか2ヶ月で、アルゴのカスタマーサービスチームは、より迅速かつ効率的にケースを完了できるようになり、その結果、新たな問い合わせに67%早く対応できるようになりました。

アルゴのコマーシャル・オペレーション担当副社長であるライアン・ゾイナー氏は、次のように語っています。

「RAGを使うことで、本当に複雑な回答の多くを分解し、5部構成や6部構成の回答を、技術に精通した人が回答していると顧客が認識できるような形で提供できるようになりました」

RAGは現在、自社製品の60%に対応しており、今後も拡大を続ける予定です。また、新しいチャットログや会話をデータベースに追加し始め、さらに関連性の高いコンテキストでソリューションを強化しています。

RAGを使用することで、オンボーディングにかかる時間を半分に短縮でき、より早く成長することが可能になりました。

ゾーナー氏は言います。
「RAGは、私たちをより効率的にしてくれます。従来のLLMを使用した試みと異なるのは、私たちのブランド、アイデンティティ、そして会社の倫理観を維持できるという点です。また、人間味あふれる顧客対応に時間を費やすことができるようになり、私たちのブランドをさらに広め、全体的な品質保証にもつながります」

Einstein 1 Platform

世界No.1のAI搭載型CRMだからできる、業務の効率改善。Einsteinが、働くみなさんを応援します。

※本記事は米国で公開された “The Hottest 3 Letters in Generative AI Right Now Are Not LLM” の抄訳版です。本ポストの正式言語は英語であり、その内容および解釈については英語が優先されます。

ビジネスに役立つコンテンツを定期的にお届けします