TOP

アクティビティ

コラム

Laboroコラム

ChatGPTを学習させるーー。生成AI・LLMを自社に最適化する活用法と注意点

Laboro.AIコラム

ChatGPTを学習させるーー。
生成AI・LLMを自社に最適化する活用法と注意点

2025.10.28
株式会社Laboro.AI リードマーケター 熊谷勇一
執行役員 マーケティング部長 和田 崇

概 要

生成AIのうちChatGPTなどLLM(大規模言語モデル)に自社データを学習・参照させることで、精度の高い応答や業務効率化が実現することがあります。具体的なメリット・デメリットや手法、準備すべきこと、導入時の注意点を解説します。

目 次

生成AI・LLMを学習させることで広がる可能性
 ・学習と参照の違い
LLMを学習・参照させるメリット
 ・業務効率化が実現できる
 ・自社にマッチした精度の高い回答が得られる
LLMを学習・参照させるデメリット
 ・情報漏洩の可能性がある
 ・大きなコストとリソースが必要
LLMを学習させる具体的な方法
 ・ファインチューニング
 ・プロンプトエンジニアリング
 ・RAG
自社データをLLMに学習・参照させる準備
 ・LLMをファインチューニングする手順
LLMの学習・参照における注意点と課題
 ・学習・参照データの限界
 ・情報漏洩とセキュリティ対策
 ・継続的なメンテナンスの必要性
まとめ

生成AI・LLMを学習させることで広がる可能性

近年、ChatGPTなどLLMの企業活用が急速に広がっています。米国では95%の企業が生成AIを利用しており、これほど高い関心がある背景には、生産性向上やコスト削減への期待があります。

一方で、企業がLLMを導入する際の懸念事項も明確になりつつあります。特にデータのセキュリティや品質、社内の専門人材不足がボトルネックになっており、情報漏洩リスクへの不安や、使いこなす人材の不足が普及の足かせとなっています。こうした課題を乗り越えるため、自社に最適化したLLMを構築する方法に注目が集まっています。

LLMを自社向けに学習・参照させる(カスタマイズする)ことで、高度な問い合わせ対応や知識共有が可能になります。社内の膨大な資料を学習させておけば、社員はLLMに質問するだけで必要な情報をすぐに得られるようになります。これは熟練者の知見をAIが継承し、新人でも同等の回答を引き出せることを意味し、現場のスキル格差の解消にもつながります。さらに、日々の定型業務をAIに任せ、人間は創造的な業務に専念するといった使い分けも促進されます。

LLMを自社向けに調整することで、社外非公開の知識(社内FAQや独自ノウハウなど)をAIに活用させることができます。汎用モデルでは難しかった専門的な質問への正確な回答や、業界用語に通じた対話も可能になります。その結果、顧客対応の高度化や設計・開発プロセスの効率化など、競争力強化に直結する活用が期待できます。

学習と参照の違い

「LLMなど生成AIにデータを学習・参照させる」という表現について整理します。生成AIの中でも近年注目されるLLMの学習とは、モデル開発のプロセスである「事前学習」「追加学習」「事後学習」を指すことが普通です。

LLMの開発においては、まず事前学習としてウェブ上の膨大なテキストデータから学習を行い、言語のパターンや基礎的な知識をモデルに蓄積します。続いて、追加学習としてさらに性能を改善したり、特定タスクに適応させるためのファインチューニングを行います。その後、より人間の意図や価値観に沿った回答をするように最適化する「RLHF(Reinforcement Learning from Human Feedback、人間のフィードバックによる強化学習)」などの事後学習が施されます。

これらの学習プロセスはモデルのパラメーターを更新することを目的として行われる、LLM自体の開発プロセスそのものですので、既製のLLM・生成AIを導入する企業では基本的には行わない領域です。ただし、LLMに追加学習させるファインチューニングは、とくに企業やビジネス固有の情報や知識をLLMに携えさせるために有効なアプローチであり、多くの開発・導入現場で取り組まれるようになっています。

なお、LLMの出力の精度を上げる手法に、後述するプロンプトエンジニアリングやRAG(Retrieval Augmented Generation)があり、これらが「学習」として紹介されるケースもあります。ですがこれらの手法は、モデルの再学習やパラメーターを更新することなく、単に必要な知識をその都度、検索・引用させる方法であることから、「学習」ではなく「参照」と呼ぶのが適切です。

LLMを学習・参照させるメリット

業務効率化が実現できる

社内向けに学習・参照させたLLMは、社員の業務を支援する強力なアシスタントになります。問い合わせ対応やデータ整理、レポートの下書き作成など、人手で時間を要していたタスクを高速化・自動化できます。活用により業務成果が向上したケースが多く報告されています。日本経済新聞が2025年4月に実施した調査では、生成AIを仕事で活用した人の約7割が「業務効率が上がった」と回答しています。

自社にマッチした精度の高い回答が得られる

もう一つの大きなメリットは、回答の精度・質が飛躍的に向上することです。LLMは汎用的な知識で学習されていますが、そこに自社の業界知識や製品情報を学習・参照させることで、回答の専門性が増します。実際、特定分野のデータでファインチューニングされたモデルは、ベースのモデルよりもその分野で高い性能を示すことが確認されています。例えば、自社の製品マニュアルや技術文書を学習させれば、ユーザーからの専門的な質問にも適切で詳しい答えを返せるようになります。

つまり、自社に最適化したLLMは「自社専属の優秀な回答者」として、精度が高く信頼できる情報提供を実現してくれるのです。

LLMを学習・参照させるデメリット

情報漏洩の可能性がある

社内データをLLMに学習・参照させる際には、機密情報の取り扱いに細心の注意が必要です。クラウド経由で外部のAIサービスを使う場合、学習・参照データやプロンプトとして機密情報を送信すると、漏洩リスクがゼロではありません。実際、2023年には韓国サムスン電子で従業員が機密コードをChatGPTに入力する事案が発生し、同社が一時社内利用を禁止する事態となりました。他にも機密保持の観点から生成AIの社内利用を禁止・制限する企業が現れています。

こうしたリスクに対処するには、セキュリティ対策を万全にした環境でLLMを活用することが不可欠です。例えば、ChatGPTのAPIを使う場合は機密データが学習に再利用されないようオプトアウト設定を有効にし、可能ならば自社環境でモデルを運用するのが望ましいでしょう。また、学習・参照前に機密情報をマスキング・除去する、アクセス制限や通信暗号化を徹底するといった対策も重要です。

大きなコストとリソースが必要

もう一つの課題は、LLMを自社向けに学習させるためのコストとリソースの大きさです。モデルを学習させるには高性能なGPUを多数稼働させる必要があり、その計算資源にかかる費用が発生します。加えて、データ準備の手間も見逃せません。データのクリーニングや形式変換など前処理には時間と労力がかかり、専門の人員の投入を前提とした数カ月規模のプロジェクトとなるでしょう。

総じて、LLMを自社に最適化するには、相応のコストと人材の投資が必要になる点を念頭に置くべきです。

LLMを学習させる具体的な方法

LLMを自社向けに強化する代表的な手法として、以下の三つが挙げられます。

ファインチューニング

既存のGPTなどのモデルに自社データで追加学習を行い、モデル自体をドメイン特化させる方法です。大量の汎用データで学習済みのモデルに、社内のFAQやドキュメントなど比較的小規模の専門データを再学習させます。これによりモデル内部のパラメーターが調整され、特定分野の知識や用語を身に付けたカスタムモデルが得られます。例えば社内FAQを学習させれば、その分野に特化した正確な回答が可能になります。ただし、モデル再学習には前述のようにコストがかかるため、費用対効果を慎重に検討する必要があります。

ファインチューニングについてはこちらもご覧ください。
ファインチューニングとは 応用分野からプロセス、発展まで

また、当社COO兼CTO藤原のほか、機械学習エンジニア6名が執筆した『今日から使えるファインチューニングレシピ-AI・機械学習の技術と実用をつなぐ基本テクニック-』もぜひご覧ください。

プロンプトエンジニアリング

モデルを再学習させずに、入力する指示(プロンプト)の工夫だけで望ましい出力を引き出す手法です。生成AIへの質問文や指示文の書き方を調整することで、回答内容や表現を制御することを狙います。例えば「〇〇の専門家として答えてください」「回答は箇条書きで」など明確な指示や文脈情報を与えることで、汎用モデルでも自社ニーズに沿った出力を得られます。追加の学習コストが不要で機密データを外部に出さずに済む利点があり、実践次第で社内知識を回答に反映させることも可能です。プロンプトの与え方次第で回答品質が大きく変わるため、試行錯誤しながら最適な指示内容を見つけていくことが重要です。

プロンプトエンジニアリングについてはこちらもご覧ください。
プロンプトエンジニアリング【ビジネス成長のためのAI用語】

RAG

生成AIに外部知識の検索を組み合わせることで、より詳しく正確な応答の生成を目指す手法のことで、生成AIと自社のデータベースなどを連携させる手法です。プロンプトエンジニアリングと同じく、モデルの再学習はさせません。質問に対して、まず社内の蓄積データから関連情報を検索し、それを含めて生成AIが回答を生成します。言わば生成AIに社内の資料をその場で参照させて回答させるイメージです。モデルを再学習させずとも最新の内部データを活用できるのが大きな利点です。例えば社内データベースに新しい資料を追加すれば、その情報を生成AIの回答にすぐに反映できます。

一方で、RAGを導入するにはベクトルデータベースなど専門のデータ基盤の構築と維持が必要となります。社内文書を適切に分割・ベクトル化して検索精度を高めたり、プロンプトと組み合わせて回答精度をチューニングしたりするといった前処理も求められます。

RAGについてはこちらもご覧ください。
LLM・RAGのビジネス導入の落とし穴「回答精度が期待より低い」などの回避法

自社データをLLMに学習・参照させる準備

まず、学習・参照に使う社内データを収集・整理します。目的に沿った分野の最新で正確なデータを選び、重複や不要情報を除去しておきましょう。また、FAQなどは質問と回答のペアのように学習・参照しやすい形式に整理します。

次に、データから誤りや機密情報を取り除き、モデルが読み込めるフォーマットに変換します。例えばOpenAIが提供するChatGPT系のモデルのファインチューニングでは、データをUTF-8のJSON Lines(JSONL)形式にする必要があります。社内文書を活用する場合でも、文書を適切に分割・ベクトル化して検索しやすくするなどの前処理が不可欠です。

LLMをファインチューニングする手順

ChatGPTでいえば、GPT-5やGPT-5-mini、GPT-5-nanoなどから目的に合ったモデルを選び、APIキーの取得など必要な準備を行います。自社でオープンソースモデルを運用する場合は、GPUサーバーのセットアップなど環境構築も必要です。

準備したデータを使ってモデルをファインチューニングします。学習完了後、テスト用の質問でモデルの性能を評価し、期待通りの回答が得られるか確認しましょう。問題がなければ完成したカスタムモデルを社内システムに組み込み、業務への活用を開始します。

小規模なPoC(概念実証)であれば数週間程度で完了しますが、本格導入では数カ月の期間を見込む必要があります。

必要なリソースとしては、人的リソース(専門チームの編成)、計算資源(十分なGPUなどのインフラ)、予算(API利用料やサーバー費用)などが挙げられます。

LLMの学習・参照における注意点と課題

学習・参照データの限界

LLMに与える学習・参照データには量と質の限界があります。まず、用意する学習例が少なすぎるとモデルの応答傾向を十分に変えられません。逆に、大量の事例を詰め込みすぎるとノイズが増え、かえって性能が低下する恐れもあります。モデルは与えられたデータ以上のことは答えられませんので、目的に合った高品質なデータを厳選して学習・参照させることが重要です。

また、LLM自体の制約として、学習後の新しい情報は反映されない点にも注意が必要です。ファインチューニングをしても、その後に出た新製品や最新情報についてはモデルは知らないままです。この点、RAGを併用すればアップデートできますが、モデル単体で運用する場合は定期的に追加学習やモデルの更新を検討する必要があります。

情報漏洩とセキュリティ対策

LLMの活用に当たっては、前述の情報漏洩リスクに常に留意し、アクセス権限の管理や通信の暗号化、機密データのマスキングなど基本的なセキュリティ対策を徹底する必要があります。

継続的なメンテナンスの必要性

AIモデルの性能を維持・向上するには、定期的な評価と再学習が欠かせません。また、新たなモデル登場時の乗り換え検討や、社内教育・利用ルール整備などの継続的メンテナンスも必要です。

まとめ

LLMに自社のデータや知識を学習させて活用することは、業務効率化や高度な知識共有など多くの利点をもたらします。一方で情報漏洩リスクやコスト・人材面の課題にも注意が必要であり、適切な手法選択と対策が不可欠です。本コラムで解説したように、ファインチューニングやプロンプトエンジニアリング、RAGといった手段を組み合わせれば、自社に最適化された「頼れるAIアシスタント」を構築できる可能性が出てきます。

自社の課題に合わせた計画を立て、まずは小さく始めて効果を検証しつつ段階的に拡大することが重要です。そして例えば「LLMを自社向けに学習・参照させたいが何から始めればよいのか」と思ったら、当社のようなAIベンダーに相談を始めるのも一つの手です。解決すべきビジネス課題を改めて見つめた上で、最適なAIソリューションをご提案します。めには、AIベンダーにコンサルティングを依頼するのも有効な選択肢の一つです。

詳しくはこちらをご覧ください。
カスタムAI開発

参考文献
BAIN & COMPANY “2025 Smart Manufacturing and Operations Survey: Navigating challenges to implementation
Stanford University Human-Centered Artificial Intelligence “Survey: Generative AI’s Uptake Is Unprecedented Despite Roadblocks
Deloitte Insights “The 2025 AI Index Report
日本経済新聞「生成AIで「業務効率向上」7割 活用体制の整備は業種で差も 日経読者調査
IBM「RAGとファイン・チューニングの比較
The Verge “Samsung tells employees not to use AI tools like ChatGPT, citing security concerns
NRI「プロンプトエンジニアリング
Microsoft Ignite “Customize a model with fine-tuning

執筆者

マーケティング部 リードマーケター 熊谷勇一

中央大学文学部卒業、北陸先端科学技術大学院大学情報科学研究科博士前期課程修了。日本経済新聞社など日経ブランド企業で16年、雑誌、書籍、ウェブサイト、動画などの編集・執筆を手掛けた後、2022年からLaboro.AIに参画。

執行役員 マーケティング部長 和田 崇

立教大学大学院経営学修士(マーケティング論・消費者行動論)。立教大学大学院ビジネスデザイン研究科博士後期課程中退。KDDI株式会社に入社、コンシューマ向け商品・サービスのクロスメディアによるプロモーション施策の立案・企画運営に携わったのち、全国漁業協同組合連合会を経て、2019年にLaboro.AIに参画。マーケティング/ブランディング業務に従事する傍ら、NewsPicksプロピッカーとして活動するほか、日経クロストレンドなどメディア寄稿多数。

閉じる お問い合わせは
こちら