SPONSORED

LoRA(ろら)

最終更新:2026/4/28

LoRAは、大規模言語モデルの学習において、既存のモデルを微調整するために用いられるパラメータ効率的な手法である。

別名・同義語 低ランク適応パラメータ効率的微調整

ポイント

LoRAは、モデル全体のパラメータを更新するのではなく、低ランク行列を追加学習することで、計算コストとストレージ要件を削減する。

LoRAとは

LoRA (Low-Rank Adaptation) は、大規模言語モデル (LLM) を特定のタスクやデータセットに適応させるためのパラメータ効率的な微調整手法です。従来のファインチューニングでは、モデル全体のパラメータを更新する必要があり、計算コストやストレージ要件が非常に高くなるという課題がありました。LoRAは、この課題を解決するために、既存のモデルの重みに低ランク行列を追加し、この低ランク行列のみを学習することで、パラメータ数を大幅に削減します。

LoRAの仕組み

LoRAは、各層の重み行列に2つの低ランク行列 (AとB) を並列に追加します。学習時には、元の重み行列は固定されたまま、追加された低ランク行列AとBのみが更新されます。これにより、学習対象のパラメータ数が大幅に削減され、計算コストとストレージ要件が軽減されます。低ランク行列のランクを調整することで、モデルの表現力とパラメータ効率のバランスを制御できます。

LoRAの利点

  • パラメータ効率: 学習対象のパラメータ数が大幅に削減されるため、計算コストとストレージ要件が軽減されます。
  • 高速な学習: パラメータ数が少ないため、学習時間が短縮されます。
  • 移植性: 学習済みのLoRAモジュールは、元のモデルと組み合わせて使用​​でき、異なるタスクやデータセットに簡単に適用できます。
  • 既存モデルの活用: 既存の大規模言語モデルを再学習する必要がなく、LoRAモジュールを追加するだけで特定のタスクに適応させることができます。

LoRAの応用例

SPONSORED