トップKサンプリング(とっぷけーさんぷりんぐ)
最終更新:2026/4/25
トップKサンプリングは、確率モデルから次のトークンを生成する際に、確率が最も高いK個のトークンのみを候補として選択し、その中からランダムに選択する手法である。
ポイント
この手法は、生成されるテキストの多様性と品質のバランスを調整するために用いられ、特に大規模言語モデルにおけるテキスト生成で効果を発揮する。
概要
トップKサンプリングは、大規模言語モデル(LLM)がテキストを生成する際のデコーディング戦略の一つです。LLMは、与えられた文脈に基づいて次の単語(トークン)の確率分布を予測しますが、単純に最も確率の高い単語を選択すると、生成されるテキストが単調になりがちです。一方、確率分布全体からランダムに選択すると、文法的に誤った、または意味的に無意味な単語が選択される可能性が高まります。
トップKサンプリングは、これらの問題を解決するために、確率が最も高いK個のトークンに候補を絞り込み、その中から確率に基づいてランダムに選択します。Kの値はハイパーパラメータであり、生成されるテキストの多様性と品質を調整するために調整されます。
Kの値の調整
Kの値が小さい場合、生成されるテキストはより予測可能で、一貫性がありますが、多様性が低くなります。Kの値が大きい場合、生成されるテキストはより多様になりますが、文法的に誤った、または意味的に無意味な単語が選択される可能性が高まります。
適切なKの値は、タスクやモデルによって異なります。一般的には、K=40〜50程度が推奨されますが、実験的に最適な値を見つけることが重要です。
他のサンプリング手法との比較
トップKサンプリングは、他のサンプリング手法と組み合わせて使用されることもあります。例えば、トップPサンプリング(nucleus sampling)は、確率の累積和がPを超えるまでトークンを選択し、その中からランダムに選択します。トップKサンプリングとトップPサンプリングを組み合わせることで、より柔軟なテキスト生成が可能になります。
利点
- 多様性と品質のバランスが良い
- 実装が比較的簡単
- 計算コストが低い
欠点
- Kの値の調整が必要
- 文法的に誤った、または意味的に無意味な単語が選択される可能性がある