LLMとは、深層学習において、大量のテキストデータによってトレーニングされた言語モデルで、AIが人間の言葉を理解・生成する「自然言語処理」を支えています。
ChatGPTやGeminiなどの高性能な生成AIが登場して以降、企業でも業務の効率化に生成AIを活用する場面が増えました。AIをより深く理解するために、LLMについて知りたい方もいらっしゃるでしょう。
本記事では、LLMの意味と仕組み、用途を解説します。LLMは、生成AIの出力精度につながるため、理解を深めて自社のAI活用に知識を活かしましょう。
AIを活用して業務の生産性を向上させる資料3点セット
AIを活用して業務の生産性を向上させたい方に向けて、すぐに活用できるヒントをまとめた資料をご用意いたしました。ビジネスにおけるAIの活用方法を幅広く知りたい方は、ぜひご覧ください。

目次
LLM(大規模言語モデル)とは

LLM(Large Language Models:大規模言語モデル)とは、大量のテキストデータから文法や単語などの出現確率をモデル化したもの(言語モデル)です。
最近は、深層学習(ディープラーニング)によって訓練された大規模な言語モデル(ニューラル言語モデル)を指します。
AIは、LLMを通じて、人間の言葉を理解したり生成したりする自然言語処理(NLP)を行ないます。たとえば、ChatGPTやGeminiなどの生成AIに質問を投げかけると、あたかも人間かのようにテキストで答えてくれるはずです。
このように、LLMは生成AIの出力を支えています。
従来の自然言語モデルと比較して、LLMは以下3つの要素が大規模化しています。
- 計算量:AIが処理できる内容量
- データ量:AIが学習する情報量
- モデルパラメータ数:確率計算を行なうための係数・数式の数
LLMの発達によってAIの言語理解が高度化し、より人間に近い会話や文章の生成ができるようになってきているのです。
深層学習とは
深層学習とは、AIの構成要素である機械学習における学習方法の一種で、人間の脳の神経回路を模倣した人工ニューラルネットワークを通じて、データからパターンや特徴を学習します。
2017年、Google社からTransformer(トランスフォーマー)と呼ばれる深層学習モデルが発表されました。技術の発展により、ニューラルネットワークのなかの「どこ」に注目するかを自動的に学習できるようになったのです。
その結果、深層学習の学習効率が高まるとともに、汎用性の高い言語モデルを構築できるようになりました。
自然言語処理とは
自然言語処理とは、人間が話したり書いたりする自然言語を、コンピュータに処理させる技術です。
自然言語処理は、以下の2つの分野に大別されます。
- 言語理解:人間か書いたテキストに対して処理を行なう技術(例:メールの分類)
- 言語生成:コンピュータにテキストを生成させる技術(例:文章の要約)
従来、言語理解と言語生成は別個に研究されてきましたが、生成AIを見てわかるようにひとつのシステムで両方をこなせるようになっていきます。
言語モデルとは
言語モデルとは、人間が用いる単語の出現確率の分布のことで、ある単語の次に来る単語を予測します。単語の出現確率を統計的に分析することで、言語を理解することが可能です。
たとえば、生成AIに「AIとは?」と尋ねると「人間のように考えたり学んだりする能力をもつコンピュータシステムのこと」と回答します。出力までのプロセスで、大量のテキストデータのうち「AIとは」のあとに続く出現率が高い単語を予測した結果です。
2018年、Google社は「BERT」という自然言語モデルを発表しました。このモデルでは、従来のように人間の手で正解を学習させる必要がなくなったため、大規模な学習ができるようになったのです。
その後、大量のデータを学習させて、言語モデルを大規模化させるほど予測精度が向上すること(スケーリング則)がわかりました。
こうした背景があり、LLMのように言語モデルの大規模化が進んでいるのです。
LLM(大規模言語モデル)と生成AIの違い

LLMと生成AIは位置づけが異なります。LLMは、生成AIという大きな枠組みのなかで頭脳として機能する、いわばパーツのひとつです。

出典:テキスト生成 AI の導入・運用ガイドライン|独立行政法人情報処理推進機構
上図では、LLMがテキスト生成AIを構成するシステムのなかに組み込まれています。
生成AIは、LLMをはじめとするさまざまなパーツによって構築され、文章や画像を生成する技術を指します。
LLMは生成AIの構成要素であり、位置づけが異なるのです。
ChatGPTとの違い
ChatGPTは対話型の生成AIであり、LLMとは位置づけが異なります。
ChatGPTは、ユーザーが入力した質問や指示に対して、テキストや画像を生成するAIです。ChatGPTには、GPT-4やGPT-4oというLLMが組み込まれており、自然な文章の作成や要約ができるようになっています。
LLMはChatGPTを構成するパーツとして機能を支えており、位置づけが異なります。
LLM(大規模言語モデル)の仕組み

現在のLLMは、深層学習モデルであるTransformerの仕組みをもとに開発されており、以下のプロセスを通じて動作します。
プロセス | 概要 |
---|---|
トークン化 | 入力されたテキストをLLMで処理できるよう、トークンと呼ばれる小さな単位に分割する |
エンコード | トークンをベクトル(文脈の距離を表す数値)に変換し、単語の順序や関連性を計算して文脈を理解する |
デコード | エンコーダで生成した文脈情報をもとに、次に出現する単語を予測し、文章を生成する |
参考:Vaswani, A. “Attention is all you need.” Advances in Neural Information Processing Systems (2017).
日本では、「文脈理解」を独立したプロセスとして説明されることもありますが、実際にはエンコードのなかで行なわれるため、ここではエンコードに含めています。
LLMは、大きく分けて3つのプロセスを通じて人間の言葉を理解し、文章を生成しているのです。
LLM(大規模言語モデル)の種類

LLMの代表的な種類は、以下のとおりです。
LLMの種類 | 発表年 | 最大規模のモデルパラメータ数 | 開発者 |
---|---|---|---|
BERT | 2018 | 3.4億 | Google社 |
GPT-1 | 2018 | 1.2億 | OpenAI社 |
GPT-2 | 2019 | 1.5億 | OpenAI社 |
GPT-3 | 2020 | 1,750億 | OpenAI社 |
GPT-4 | 2023 | 非公表 | OpenAI社 |
Swallow | 2023 | 700億 | 東京工業大学 |
出典:令和6年版科学技術・イノベーション白書 本文(PDF版)(文部科学省)(2025年1月12日) をもとに作成
上記のほとんどが、Transformerの仕組みを利用して開発されたLLMです。ChatGPTのLLMを見ると、GPT-1ではモデルパラメータ数が1.2億だったのに対し、GPT-3は約1,458倍の1,750億に増えています。
このように、公開済みのLLMも進化を続けているのです。
なお、海外で開発されたLLMは、英語がベースとなっています。日本語の理解や生成の精度は、日本語ベースのLLMのほうが高いことから、国内ではSwallowのように日本語ベースのLLMの開発が進められています。
LLM(大規模言語モデル)の用途

生成AIの構成要素であるLLMの用途は、大きく分けて次の5つです。
- 文章の作成
- コンテンツの要約
- 言語の翻訳
- チャット応答の生成
- コードの生成
上記の用途から、LLMが生成AIの出力を支えていることがわかるでしょう。
なお、LLMはビジネス分野でも活用が可能です。以下の記事ではLLMを通じて顧客データをより有効活用する方法を紹介しているので、あわせてご覧ください。
文章の作成
LLMは、言語理解と言語生成を通じて、自然な文脈をもつ文章を生成します。
営業やマーケティング分野では、顧客の興味を引く効果的な文章の作成に応用できます。たとえば、製品・サービスの紹介文や、ターゲットに合わせたメールキャンぺーンの文面作成などです。
精度の高い出力を促すためには、プロンプトを工夫する必要があります。以下の記事では、プロンプトの概要や作成のコツを紹介しているので、参考にしてみてください。
プロンプトとは?意味と書き方、業務効率を向上させる例文を紹介(作成中)
コンテンツの要約
LLMは、長文の文章を要約し、重要な情報の抽出が可能です。
たとえば、報告書や調査資料を要約することで、短時間で要点を把握できます。
営業やマーケティング分野では、競合分析データや顧客レビューを要約し、プレゼン資料や提案書の作成に活用することで、よりニーズに沿った内容に仕上げられます。
言語の翻訳
LLMは、さまざまな言語を翻訳することが可能です。
AIによる翻訳を活用すれば、海外市場向けの営業資料や商品説明を多言語対応させ、ターゲットの言語に合わせたメッセージを作成できます。
さらにマーケティング分野では、現地の文化やニュアンスを考慮した広告文やWebサイトの作成をサポート可能です。
チャット応答の生成
LLMは、チャットボットやFAQシステムと連携し、ユーザーとの自然な対話を実現します。
AIチャットボットでは、顧客からの問い合わせに対し迅速かつ的確な応答によって、カスタマーサポートの効率化を促進します。
ほかにも、営業やマーケティング分野では、社内のナレッジ共有に活用が可能です。従業員の質問に対し、AIがデータプラットフォームに蓄積されたナレッジから適切な回答を生成することで、自己解決をサポートします。
コードの生成
LLMは、プログラミングコードやスクリプトの生成も可能です。
たとえば、特定の機能に対応するコードスニペットの自動生成や、バグ修正の提案ができ、ソフトウェア開発を効率化します。
さらに営業やマーケティング分野では、Webフォームやデータ処理のスクリプト生成を通じて、キャンペーン管理やレポート作成の効率化に活用が可能です。
LLM(大規模言語モデル)を基盤とした生成AIの活用事例

アメリカで6万軒のレストランをサポートし、数百万人のユーザーを抱えるOpenTableは、質の高い顧客体験を提供するために、大量の対応が必要でした。
そこで、自律型AIエージェントサービスである『Agentforce for Service』を試験導入しました。AIエージェントとは、目的を与えれば自分で必要なデータを調査して、適切な行動に移す自律型のAIのことで、人間の指示なく稼働します。
たとえば「ポイントの有効期限はいつですか?」という質問に的確に回答できるとともに、追加で「メキシコではどうですか?」と尋ねれば、質問の意図を理解したうえでメキシコにおけるポイントの有効期限について回答します。
人間のカスタマーサポーターであれば、大量の問い合わせにひとつずつ対応するのは時間がかかるでしょう。しかし、AIエージェントを通じて「今知りたいこと」を即座に解決できることで、顧客の「待つストレス」がなくなり、顧客体験や満足度の向上を期待できます。
企業はSalesforceのAIエージェントを活用してどのように顧客管理、生産性、収益向上を実現できるのか
LLM(大規模言語モデル)の課題

LLMは、大きく3つの課題を抱えています。
- 誤った情報を出力するおそれがある
- LLMが学習していないデータに関する回答は精度が低い
- 日本語LLMが発展途上である
あらかじめLLMの課題を知っておくと、注意しながら生成AIを活用できるため、出力精度の向上が可能です。
誤った情報を出力するおそれがある
LLMが学習したデータが古くなると、更新前の情報にもとづく古い回答を生成するおそれがあります。
たとえば、企業データをもとに製品紹介文を作成する際、製品名をアップデートしていなければ、古い製品名のままで紹介文を作成してしまいます。
ときには、事実やデータにもとづかない誤った情報を生成するハルシネーションを引き起こすこともあるため、LLMがいかに優秀でもアウトプットした内容をチェックすることが大切です。
LLMが学習していないデータに関する回答は精度が低い
LLMを基盤とした生成AIを活用する際は、LLMが学習していないデータに関する回答の精度が低下するリスクに注意が必要です。
たとえば、従業員が「当社の法定外福利厚生を教えてください」と質問した場合を考えてみましょう。学習データがWebのように広範囲にわたり社内データに限定されていなければ、LLMが正しく学習できておらず、正確に回答できないはずです。
回答精度を向上させるためには、ファインチューニングやRAGなどで対策する必要があります。
ファインチューニングとは

出典:テキスト生成 AI の導入・運用ガイドライン|独立行政法人情報処理推進機構
ファインチューニングとは、学習済みの言語モデルに新たなデータを追加で学習させる訓練方法です。大量の時間やリソースを割いて実施する特徴があります。
たとえば、ある分野の一般的な情報を学習したLLMに対してファインチューニングを実施すると、ある分野に特化したLLMに育てることが可能です。ファインチューニングを行なえば、ある分野の回答精度を高められます。
このとき、学習データの質と量が出力精度を左右するため、ノイズや重複の除去などデータクレンジングが求められます。また、分野特化型のLLMになったことで、汎用性が低下する点には留意が必要です。
ファインチューニングは分野に特化した精度の高い回答を出力させる一方で、膨大なリソースを費やさなければなりません。
以下の記事では、ファインチューニングではないLLM訓練方法を解説しているので、参考にしてみてください。
LLMをまだファインチューニングしますか?もっと良い方法、あります。
RAGとは

出典:テキスト生成 AI の導入・運用ガイドライン|独立行政法人情報処理推進機構
RAG(Retrieval-Augmented Generation)とは、外部のデータベースから情報を検索し、追加情報を付与したうえで回答を生成させる技術です。
ベクトルデータベースという外部のデータベースに関連データを格納しておき、そこから検索した情報を付加した回答を生成できます。
この方法なら、LLMが学習していない内容も踏まえて回答できるため、出力精度が向上するのです。
より出力精度を高めるためには、ベクトルデータベースに格納するデータのデータクレンジングが重要です。また、ベクトルデータベースにおける検索が発生することで、回答の生成に時間がかかる点にも留意しておかなければなりません。
日本語LLMが発展途上である
日本企業が生成AIを活用する場合は、日本語に強いLLMが必要です。ところが、LLM開発の分野においては、海外企業が先行しており、日本は発展途上にあります。
独自のLLM開発に取り組む企業や国の取り組みも広まっていますが、中規模モデルのLLMが多い状況となっています。
ただし、今後の成長も見込めることから、ChatGPTやGeminiのように英語ベースの生成AIを活用しつつ、将来的には日本語に強いLLMに切り替えられる環境に変更できるようにすることも視野に入れておきましょう。
そのためには、さまざまなLLMに対応している生成AIサービスの導入がおすすめです。
以下の記事では、RAGについてより詳しく解説しているので、あわせてご覧ください。
日本語特化型LLMを活用できる『Salesforce LLM Open Connector』

『Salesforce LLM Open Connector』は、企業独自でファインチューニングしたLLMを選択できるコネクタです。つまり、日本企業が開発した日本語特化型のLLMを選択できます。Salesforce製品に搭載されているAI『Einstein』では、これまで英語ベースのLLMを標準で活用していました。
日本語特化型LLMに切り替えられるようにアップデートしたことで、各製品における『Einstein』の活用で、日本語の出力精度向上を期待できます。
日本語特化型LLMを活用して業務効率を向上させたい場合は、ぜひ一度お問い合わせください。
まとめ:LLMを基盤とした生成AIを活用して業務を効率化しよう

LLMは、業務効率の向上手段として注目されている生成AIの構成要素で、AIモデルの言語理解や生成をサポートします。LLMの性能によってAIによる出力精度が変わるため、生成AIを導入する際はチェックしておきたいポイントです。
よく聞くChatGPTやGeminiなどはいずれも、海外で開発された英語ベースのLLMが基盤となっているため、最新モデルでは大幅に改善されていますが、日本語での入力・出力では不自然さが感じられることもあります。
そのため、日本企業における業務効率を向上させたい場合は、日本語特化型のLLMを活用できる環境が必要です。
Salesforceが提供するAI『Einstein』は、『Salesforce LLM Open Connector』を利用することで日本語特化型のLLMの活用が可能です。日本語特化型のLLMに切り替えれば、日本語入力と出力精度が上がり、より業務の効率化を促進できます。
日本語特化型のLLMを活用したい企業さまは、ぜひお問い合わせください。
また、以下の資料では、AIを活用した業務効率向上のヒントを紹介しているので、あわせてご覧ください。
AIを活用して業務の生産性を向上させる資料3点セット
AIを活用して業務の生産性を向上させたい方に向けて、すぐに活用できるヒントをまとめた資料をご用意いたしました。ビジネスにおけるAIの活用方法を幅広く知りたい方は、ぜひご覧ください。
