
LLM(大規模言語モデル)とは?
大規模言語モデル(LLM)は、生成AIの成長を支えています。LLMはどのように機能し、どのように利用されているのでしょうか。さらに、LLMがビジネスにとって重要な理由も確認しましょう。
大規模言語モデル(LLM)は、生成AIの成長を支えています。LLMはどのように機能し、どのように利用されているのでしょうか。さらに、LLMがビジネスにとって重要な理由も確認しましょう。
生成AIを使用してレポートを要約したり、ソーシャルメディアのコピー案を作成したりする場合は、大規模言語モデル(LLM)で実行できます。LLMは、生成AIを支える基盤テクノロジーです。より多くのデータから情報を抽出することで、より正確な出力を生成できます。LLMを利用することで、より関連性の高いパーソナライズされたコンテンツを顧客に提供できるため、企業にとって不可欠です。
LLMが後押しする人工知能(AI)の進歩により、企業はAIエージェントを作成して導入することもできます。こうしたインテリジェントシステムは、顧客やスタッフのプロンプトに応じて記憶、逐次推論、自己反省を活用し、複雑な問題を解決できます。
LLMとは何なのか、そしてLLMがどのように機能し、ビジネスにどのような利点をもたらすのか、詳しく見ていきましょう。
具体的な内容は、以下のとおりです。
大規模言語モデル(LLM)は、生成AIを動かすエンジンです。LLMは、大量のテキストデータでトレーニングされているため、自然な文章で質問を理解し、回答できます。そして現在、テキストおよびビジュアルコンテンツの作成、要約の生成、新しいコードの記述に活用されています。
ユーザーは、自然な文章で記述されたプロンプト、質問、コンテキストをモデルに送信し、LLMと対話します。たとえば、この記事の要約を作成するように生成AIモデルに依頼できます。まず、記事のテキストをAIツールに送信し、AIツールに取り込んで分析します。次に、求めていることを詳しく説明するプロンプトを作成します。その結果、LLMが大まかな要約を生成します。モデルのトレーニングに使用するデータが多いほど、結果はより完全で正確になります。
適切なデータがあれば、ピッチの作成のような業務にセールスチームがAIを活用するなどして、企業でLLMを多くの方法で活用できます。すべては、顧客の課題と好みを示唆する関連性の高い顧客データが基盤となります。
Salesforce AIは、Salesforce Platform全体をグラウンディングする、信頼性と拡張性の高いAIを提供します。 SalesforceのAIを顧客データと合わせて利用すると、ビジネスのあらゆるニーズに合わせて、カスタマイズ可能な予測・生成AIのエクスペリエンスを安全に構築できます。Einsteinがあれば、あらゆるワークフロー、部門、業種で対話型AIを活用できるのです。
生成AI戦略について詳しく確認する前に、このテクノロジーがユーザーをプロンプトから出力にどのように導くのか見ていきましょう。大規模言語モデルは、機械学習(および深層学習)、ニューラルネットワーク、さらにトランスフォーマーモデルという3つのコンポーネントで成り立っています。
機械学習(ML)アルゴリズムは、データの収集方法、接続の検出方法、共通の特徴の識別方法をLLMに指示します。
MLのサブセットである深層学習は、LLMが人間の介入を減らして学習できるようにサポートし、確率的アプローチを使用して精度を向上させる効果があります。LLMで1,000通りの文章を分析するとしましょう。深層学習ツールは、「E」、「T」、「A」、「O」がもっとも頻繁に使用される文字だと判断します。その判断から、LLMは、これらの文字が英語でもっとも使用されている文字だと(正しく)推定します。
ニューラルネットワークは、人工ニューラルネットワーク(ANN)とも呼ばれ、相互に通信できる接続されたノードグループです。これらのノードは、入力と出力とともに、少なくとも1つの中間レイヤーを含むレイヤーに配置されており、LLMが情報を迅速に処理できるようにします。ニューラルネットワークは、人間の脳の神経回路網が大まかなベースとなっていますが、はるかにシンプルです。
トランスフォーマーモデルは、LLMが言語のコンテキストを理解できるようにサポートします。また、セルフアテンションという手法を利用して、文の構造と単語の選択を分析し、言語の要素が互いにどのように関連しているか把握できます。その結果、LLMはユーザーのクエリに対する理解を深めて、効果的に処理できます。
LLMは、使用するモデルに応じてテキストの解釈方法が異なります。エンコーダーのみのモデルは、提供されるテキストの意味を理解することに重点を置いていますが、デコーダーのみのモデルはプロンプトにもとづいてテキストを生成します。このエンコーダーとデコーダーを組み合わせることで、LLMはテキストを理解して生成し、カスタマーサービスやセールスなどの言語主導のタスクを実行できます。たとえば、配送時間、製品の詳細、価格変更に関する顧客の質問をLLM駆動のAIチャットボットに任せることで、人間の担当者はより戦略的なタスクに専念できます。
LLMエージェントには多くの種類がありますが、どれを使用する場合でも、トレーニングで出力の精度と信頼性が向上します。トランスフォーマーベースのニューラルネットワークには数十億のパラメーターが含まれる可能性があるため、パラメーターに正しく重み付けしてクエリに適用するためのトレーニングが必要です。さまざまなトレーニングモデルがありますが、効果の度合いはLLMの複雑さとユースケースに応じて異なります。
ゼロショット学習では、LLMをその場でトレーニングします。ユーザーが質問をすると、LLMは接続されたデータソースを並べ替えて答えを見つけます。一般に初期精度は低くなりますが、時間の経過とともに向上します。
フューショットアプローチでは、データサイエンティストは少数の関連性が高い例を提示し、LLMがベースライン接続を確立できるように支援します。フューショットトレーニングにより、ターゲット領域の精度が大幅に向上します。
思考の連鎖(CoT:Chain of Thought)トレーニングでは、LLMが簡単な推論プロセスを通じて学習します。CoTは、1つの質問をするのではなく、その質問を複数のパートに分割します。例を見てみましょう。
標準プロンプト:
Steveは20枚のシャツを持っています。シャツの半分は半袖で、それらのシャツの半分は青です。彼は何枚の青いシャツを持っているでしょうか?
CoTプロンプト:
Steveは20枚のシャツを持っています。
彼のシャツの半分は半袖です。つまり、彼は半袖のシャツを10枚持っていることになります。
それらのシャツの半分は青なので、彼は5枚の青いシャツを持っていることになります。
プロンプト自体は特に複雑ではありませんが、CoTは、LLMの質問回答方法を示すことで、問題解決のための段階的なアプローチを提供します。このアプローチは、他の問題にも適用できます。
ファインチューニングモデルとドメイン固有モデルは、ターゲットを絞り込んだユースケースに追加のコンテキスト情報を提供します。たとえば、ソーシャルメディアのセンチメント分析の改善に取り組んでいる企業では、ソーシャルプラットフォームの大規模なコンテキスト内における特定の単語やフレーズの解釈方法に関する詳細な情報を、LLMに提供するとよいでしょう。
このタイプのモデルでは、テキスト自体を見るのではなく、モデルがテキストをベクトルと呼ばれる数値に変換します。数値を使用することで、コンピューターは機械学習を利用して単語と文がどのように組み合わされているかをより簡単に分析し、単語間の関係を識別するための文脈と意味を理解できるようになります。
マルチモーダルモデルでは、LLMは、入力と出力に複数のデータ形式を使用するようにトレーニングされます。データ形式には、テキストに加えて、音声、動画、画像データが含まれる場合があります。
SalesforceのAIは、CRMに直接組み込まれたエンタープライズAIです。あらゆるアプリ、ユーザー、ワークフローがAIを利用し、企業全体の生産性を最大化します。パーソナライズされたAIアシスタントを使って、セールス、サービス、コマースなどさまざまな業務で、優れた顧客体験を提供できるように従業員を支援します。
LLMは、AIエージェントに自然な文章で会話する能力をもたらしますが、これは言うほど簡単なことではありません。
従来のボットでは、顧客の言葉を理解してダイアログを設計するために、自然言語モデルを手動でトレーニングする必要がありました。このプロセスは、企業に多大な時間とコストを強いますが、LLMはよりシンプルな代替手段となります。
たとえば、SalesforceプラットフォームのAIエージェント型レイヤーであるAgentforceなどのソリューションでは、長いトレーニングプロセスの代わりに、事前に構築されたスキル(およびローコードのカスタムアクション)を活用します。また、Agentforceも対話型AIを使用しているため、AIエージェントとのやり取りはロボットよりも自然に感じられます。
他の一般的なLLMのユースケースは次のとおりです。
簡単に答えるならば、おそらく必要ありません。
より詳しく答えるならば、ほとんどの場合、独自のLLMを構築しようとすると、費用と時間がかかるため、必要ないと言えるでしょう。
特注の言語モデルを開発するための専門知識とインフラストラクチャに投資しなければならず、費用がかさみます。豊富なトレーニングデータを用意し、正確な出力結果が得られるようにトレーニングする必要があるため、時間がかかります。さらに、ほとんどの場合、すでにあるものをゼロから生み出すことになるため、そもそも必要性がありません。
セキュリティガードレールが組み込まれた事前トレーニング済みのオープンソースLLMを利用すると、通常はパフォーマンスと保護をバランスよく実現できます。企業は、数兆個のデータポイントでトレーニングされたモデルを効果的に活用でき、コードの問題が不用意な侵害につながる不安も解消できます。LLMモデルの情報を補完するには、もっとも関連性の高い企業独自のデータを組み合わせたRAG(検索拡張生成)を使用します。
自律型のAIエージェントにより、あらゆる役割、ワークフロー、業界における仕事の進め方を変革します。
LLMは、組織に多くのメリットをもたらします。たとえば、手動プロセスを削減または排除することや、利用可能なデータソースを駆使して新たなトレンドやインサイトを導き出すことができます。ただし、LLMを効果的に利用するには、企業はLLMの優れている点と劣っている点を認識する必要があります。
ここでは、LLMの主な長所とLLMの潜在的な短所を見ていきましょう。
LLMの未来には、大規模化と小規模化の2つの道筋が考えられます。
深層学習アルゴリズムが改良され、プロセッサーのパワーが高まるにつれて、大規模言語モデルは、これまで以上に高速かつ正確に大量のデータを処理できるようになります。
同時に、より小規模で厳密に制御されたデータセットに同じレベルのパフォーマンスを適用する小規模言語モデルの発展も期待されます。こうした小規模モデルにより、企業は高度に専門的なパラメーターを定義し、精度の高い出力を得ることができます。
大規模言語モデルは、前後関係を踏まえてコミュニケーションを完全に理解する存在になりつつあります。LLMの使用において、監視は依然として重要な要素ですが、人間と同じ言語で会話できるこれらのモデルは、人間のインサイトとIT運用の間のギャップを埋める存在になります。
LLMやAIに関する理解を深めたところで、Agentforceのツアーに参加しましょう。Agentforceを使用すると、選択したLLMを使用して自律型AIエージェントを構築できるため、企業はより多くの成果を達成できるようになり、ROIと生産性の向上にもつながります。