
Few-Shot NER(少数ショット学習による固有表現認識)
【連載】自然言語処理の研究動向 第6回
2025.10.27
株式会社Laboro.AI リードMLリサーチャー 趙 心怡
リードマーケター 熊谷勇一
概 要
Few-shot NER(少数ショット学習による固有表現認識(Named Entity Recognition、NER))は、人間が書いたままの未加工のテキストを構造化されたインサイトへと変換する方法に、変革をもたらしています。従来のNERモデルの構築には数千ものラベル付きデータが必要でしたが、Few-shotの手法ではほんの数例から新しいエンティティ(文中で特定の実体や固有の対象を示す単語・句)のタイプを学習することで、このボトルネックを解消します。中核となるのは プロトタイプネットワークと呼ばれる手法で、少数の例からエンティティの原型となる埋め込み表現を構築します。
連載第1回「自然言語処理の研究動向 全40トピックの俯瞰」はこちら。
連載第2回「ニューラル機械翻訳の研究動向」はこちら。
連載第3回「テキスト要約の研究動向」はこちら。
連載第4回「質問応答」はこちら。
連載第5回「感情分析の研究動向」はこちら。

目 次
・Few-Shot NERの概要
・主要な技術的進歩
・今後の方向性と課題
・入れ子エンティティの階層構造を捉える
・NERにおける一貫性の課題
Few-Shot NERの概要
固有表現認識とは、テキスト中から人物、組織、場所、ある分野固有の用語といった重要なエンティティを識別して分類するプロセスを指します。この技術は、テキストという非構造化データから構造化された情報を引き出す上で重要な役割を果たし、その結果、ナレッジグラフの構築、検索、レコメンデーション、ビジネスインテリジェンスなどの下流アプリケーションを可能にしています。
実際には、重要となるエンティティの種類は対象とする分野によって異なります。例えば、企業では技術マニュアルから製品コードを検出する必要があります。病院では診療記録から医療専門用語を抽出する必要が生じるでしょう。また、金融機関では取引関連のエンティティを追跡することが求められるかもしれません。こうしたニーズに合わせてNERシステムを構築するには、従来は数千件規模のアノテーション付きデータが必要であり、その準備には多大なコストと時間を要していました。
Few-shot NERは、ごく少数の例からモデルに新しいエンティティのタイプを学習させることで、このボトルネックを解消する手段を提供します。これにより、NERシステムを新たなドメインやユースケースに素早く適応させることが可能になり、固有表現認識を実用に供するために必要な労力を大幅に削減できます。
主要な技術的進歩
Few-shot NERを実用化するために、研究者たちはさまざまな戦略を模索してきましたが、最も影響力の大きかった初期の研究はプロトタイプネットワーク(Fritzler et al.(2018))に焦点を定めたものでした。この手法はもともとコンピュータビジョン(コンピュータに「見ること」や「理解すること」を学習させる研究・技術)分野から着想を得たアイデアで、テキスト内のスパン(連続した文字列の範囲)を各エンティティタイプの原型となる埋め込み表現と比較することで、ごく少数の例からでも新しいエンティティタイプを学習できることを示しました。
その後、事前学習済み言語モデルの登場により、この分野の進歩は一気に加速しました。それを牽引したのは、BERTなどのモデルが研究に広く採用されたことでした(例:Das et al.(2022))。こうしたモデルによってテキスト表現がより強力になり、転移学習が現実的な手法となったためです。同じ頃、Few-NERDのようなベンチマークデータセットが現れ、評価手法の標準化も進みました。
さらに、大規模言語モデル(Large Language Models、LLM)の台頭により、Few-shotまたはZero-shotでNERを直接実行するという新たなアプローチも生まれました。例えば、Xie et al.(2023)や Wang et al.(2025)の研究では、追加のモデル学習を行わずに、プロンプティング(モデルへの指示入力を工夫する方法)と文脈内推論によってNERを実現できることが示されています。
近年では、新たな技術的進歩として2段階のプロトタイプネットワーク手法が登場しています。このパラダイムでは、一度の処理でトークンにタグ付けを行う代わりに、まず候補となるエンティティのスパンを検出し、それから各スパンを原型(プロトタイプ)となる埋め込み表現に照合して種類を割り当てます。処理を検出とタイプ付けに分割することで、データが少ない状況でもモデルの安定性が向上し、有効な検出と高い信頼度のプロトタイプ一致の両方が必要となるため誤検出が減少します。また、エラーが検出段階とタイプ付与段階のどちらで発生したかを判別しやすくなるため、原因の追跡も容易になります。
Few-shot NERにおけるこうした2段階手法の方向性は、Ma et al.(2022)および Wang et al.(2022)によって確立されました。その後、Hou et al.(2023)や Wu et al.(2025)といった後続研究によりこの手法はさらに洗練され、さまざまなデータセットやドメインで高い性能が報告されています。
今後の方向性と課題
入れ子エンティティの階層構造を捉える
次の例文を見てみてください。
She accepted a position at Department of Computer Science, The University of Tokyo.
彼女は東京大学のコンピュータ科学専攻の職に就いた。
この例には階層化された複数のエンティティが含まれています。具体的には、Department of Computer Scienceという組織内の部門の上位にThe University of Tokyoという大学・組織があり、その内部にTokyoという地名が存在します。nested NER(ネストした固有表現認識、文中の入れ子構造を持つ固有表現を正確に抽出する手法)とは、これらの層を正しく認識して保持することを指します。実際の文書にはこのような入れ子のエンティティがしばしば含まれており、その階層を保つことで曖昧さが減り、重複を防ぎ、下流の分析やアプリケーションに有用なクリーンな構造化データが得られるため重要です。
限られた例しか与えられない条件下では、ネストしたNERの実現は困難です。モデルは、極めて少ない教師データから内側と外側両方の境界を見つけ出さなければならず、境界検出の重要性が非常に高くなるためです。このような条件下では、2段階のプロトタイプネットワーク手法が依然として信頼できる選択肢となります。
また、Focusing–Bridging–Promptingという3段階構成のパイプラインのように、「まずスパンを検出し、次にタイプを割り当てる」という手順を踏襲しつつ、タイプ付与の方法を工夫したアプローチも提案されています。さらに最近では、ネストしたNERにLLMを活用する戦略も模索されています(例:Kim et al.(2024))。しかし、通常(非入れ子型)のNERで有効なプロンプト技法が、そのままネストしたケースに適用できないことも明らかになっています。ネストしたNER向けに調整したプロンプトを用いることで一定の性能向上は得られるものの、その精度は完全な教師あり学習でファインチューニングしたモデルには依然及びません。厳密なFew-shotやZero-shotのシナリオでは、引き続き2段階パイプラインの方が安全な選択肢であり、LLMは主要な抽出器ではなく補助的な役割として活用するのが望ましいでしょう。
NERにおける一貫性の課題
出力の一貫性の欠如はLLMの一般的な制約ですが、情報抽出(Information Extraction、IE)のタスク、例えばNERや関係抽出(Relation Extraction、RE)では特に深刻な問題となります。これらのタスクでは抽出するテキストのスパンや割り当てるラベルに厳密さが求められるため、要約や質問応答のようなタスクであれば見過ごされるような小さな出力の変化でも、誤りに直結してしまうのです。
研究者たちはこの課題に対し、さまざまな創意工夫を凝らしたアプローチで取り組み始めています。例えば、PromptNERという手法ではエンティティタイプの定義を明示し、厳格な出力テンプレートを設けることで結果の明瞭さを高めています。また、Generate and Organizeというパイプラインでは、生成(Generate)フェーズとそれに続く整形(Organize)フェーズを分離し、出力を所定のスキーマに沿った形式へ整然と書き換えられるようにしています。
Few-shotの枠組みからは外れますが、Dagdelen et al.(2024)の研究では、LLMを具体的なJSONスキーマに合わせてファインチューニングすることで、NERとREを統合したタスクにおける出力の一貫性が向上することが示されました。
これらの研究は実践的な将来の方向性を示唆しています。すなわち、タスクを扱いやすいステップに単純化し、出力をスキーマで管理することで、LLMベースのNERを現実世界の応用においてより信頼できるものにできるということです。
連載第1回「自然言語処理の研究動向 全40トピックの俯瞰」はこちら。
連載第2回「ニューラル機械翻訳の研究動向」はこちら。
連載第3回「テキスト要約の研究動向」はこちら。
連載第4回「質問応答の研究動向」はこちら。
連載第5回「感情分析の研究動向」はこちら。
執筆者
エンジニアリング部 リードMLリサーチャー 趙 心怡
自然言語処理、機械学習、ナレッジグラフを中心とした研究に従事。これまで複数のオープンソースのデータセットとモデルの構築に貢献してきた。最近の研究ではLLMの実社会への応用を探求し、学術研究と実際のユースケースの橋渡しに情熱を注いでいる。
訳者
マーケティング部 リードマーケター 熊谷勇一
中央大学文学部卒業、北陸先端科学技術大学院大学情報科学研究科博士前期課程修了。日本経済新聞社などメディア企業で16年、雑誌、書籍、ウェブサイト、動画などの編集・執筆を手掛けた後、2022年からLaboro.AIに参画。
