SPONSORED

転移学習(てんいがくしゅう)

最終更新:2026/4/19

転移学習とは、あるタスクで学習した知識を、別の関連するタスクに適用する機械学習の手法である。

別名・同義語 知識転移学習転移

ポイント

転移学習は、データが少ないタスクや、学習に時間がかかるタスクにおいて、効率的な学習を可能にする。

転移学習とは

転移学習は、機械学習モデルが、あるタスク(ソースタスク)で学習した知識を、別の関連するタスク(ターゲットタスク)に活用する手法です。従来の械学習では、各タスクごとにモデルを最初から学習させる必要がありましたが、転移学習を用いることで、学習時間や必要なデータ量を削減できます。

転移学習の仕組み

転移学習は、主に以下の2つの要素を利用します。

  • 特徴表現: ソースタスクで学習されたモデルが抽出した特徴は、ターゲットタスクでも有効な場合があります。例えば、画像認識で学習された特徴は、別の画認識タスクや、物体検出タスクなどに応用できます。
  • モデルパラメータ: ソースタスクで学習されたモデルのパラメータの一部または全部を、ターゲットタスクのモデルの初期値として利用します。これにより、ターゲットタスクの学習が効率的に進みます。

転移学習の

転移学習には、いくつかの種類があります。

  • ファインチューニング: ソースタスクで学習されたモデルのパラメータを、ターゲットタスクのデータで微調整します。最も一般的な手法であり、高い性能を発揮することが期待できます。
  • 特徴抽出: ソースタスクで学習されたモデルを固定し、ターゲットタスクのデータを用いて、そのモデルから特徴を抽出します。抽出された特徴を、別の機械学習モデルの入力として利用します。
  • ドメイン適応: ソースタスクとターゲットタスクのデータ分布が異なる場合に、データ分の差を解消する手法です。

転移学習の応用例

転移学習は、様々な分野で応用されています。

  • 画像認識: ImageNetなどの大規模なデータセットで学習されたモデルを、特定の物体認識タスクに転移学習することで、少ないデータ量でも高い精度を実現できます。
  • 自然言語処理: BERTやGPTなどの事前学習済み言語モデルを、テキスト分類や質問応答などのタスクに転移学習することで、高い性能を発揮できます。
  • 音声認識: 大量の音声データで学習されたモデルを、特定の言語やアクセントの音声認識タスクに転移学習することで、高い精度を実現できます。

転移学習の課題

転移学習は、必ずしも常に有効な手法ではありません。ソースタスクとターゲットタスクの関連性が低い場合や、データ分布が大きく異なる場合には、性能が低下する可能性があります。また、適切な転移学習手法を選択する必要があります。

SPONSORED