言語分布モデル(げんごぶんぷうもでる)
最終更新:2026/4/22
言語分布モデルは、テキストデータにおける単語やフレーズの出現確率を統計的に分析し、言語の構造を表現する確率モデルである。
ポイント
自然言語処理の分野で広く用いられ、文章生成や機械翻訳などのタスクに応用される。近年では、大規模言語モデルの基礎技術として注目されている。
概要
言語分布モデルは、ある単語列がテキストデータ中に現れる確率を計算するモデルです。この確率分布を学習することで、言語の文法構造や意味的な関係性を捉えることができます。初期の言語分布モデルは、n-gramモデルと呼ばれるものが主流でした。
n-gramモデル
n-gramモデルは、ある単語の出現確率を、その直前のn-1個の単語の系列から予測します。例えば、2-gramモデル(bigramモデル)では、ある単語の出現確率は、直前の1つの単語から予測されます。n-gramモデルは、計算が容易であるという利点がありますが、長距離の依存関係を捉えることが難しいという欠点があります。
ニューラルネットワークを用いた言語モデル
近年では、ニューラルネットワークを用いた言語モデルが主流となっています。代表的なものとして、リカレントニューラルネットワーク(RNN)やTransformerなどが挙げられます。これらのモデルは、n-gramモデルに比べて、長距離の依存関係を捉えることができ、より自然な文章を生成することができます。
Transformer
Transformerは、Attentionメカニズムを用いたニューラルネットワークであり、並列処理が可能であるため、大規模なテキストデータの学習に適しています。BERTやGPTなどの大規模言語モデルは、Transformerをベースとして構築されています。
用途
言語分布モデルは、様々な自然言語処理タスクに応用されています。例えば、文章生成、機械翻訳、音声認識、質問応答などがあります。また、スペルチェックや文法チェックなどのタスクにも利用されています。