転移学習(てんいがくしゅう)
最終更新:2026/4/19
転移学習とは、あるタスクで学習した知識を、別の関連するタスクに適用する機械学習の手法である。
別名・同義語 知識転移学習転移
ポイント
転移学習は、データが少ないタスクや、学習に時間がかかるタスクにおいて、効率的な学習を可能にする。
転移学習とは
転移学習は、機械学習モデルが、あるタスク(ソースタスク)で学習した知識を、別の関連するタスク(ターゲットタスク)に活用する手法です。従来の機械学習では、各タスクごとにモデルを最初から学習させる必要がありましたが、転移学習を用いることで、学習時間や必要なデータ量を削減できます。
転移学習の仕組み
転移学習は、主に以下の2つの要素を利用します。
- 特徴表現: ソースタスクで学習されたモデルが抽出した特徴は、ターゲットタスクでも有効な場合があります。例えば、画像認識で学習された特徴は、別の画像認識タスクや、物体検出タスクなどに応用できます。
- モデルパラメータ: ソースタスクで学習されたモデルのパラメータの一部または全部を、ターゲットタスクのモデルの初期値として利用します。これにより、ターゲットタスクの学習が効率的に進みます。
転移学習の種類
転移学習には、いくつかの種類があります。
- ファインチューニング: ソースタスクで学習されたモデルのパラメータを、ターゲットタスクのデータで微調整します。最も一般的な手法であり、高い性能を発揮することが期待できます。
- 特徴抽出: ソースタスクで学習されたモデルを固定し、ターゲットタスクのデータを用いて、そのモデルから特徴を抽出します。抽出された特徴を、別の機械学習モデルの入力として利用します。
- ドメイン適応: ソースタスクとターゲットタスクのデータ分布が異なる場合に、データ分布の差を解消する手法です。
転移学習の応用例
転移学習は、様々な分野で応用されています。
- 画像認識: ImageNetなどの大規模なデータセットで学習されたモデルを、特定の物体認識タスクに転移学習することで、少ないデータ量でも高い精度を実現できます。
- 自然言語処理: BERTやGPTなどの事前学習済み言語モデルを、テキスト分類や質問応答などのタスクに転移学習することで、高い性能を発揮できます。
- 音声認識: 大量の音声データで学習されたモデルを、特定の言語やアクセントの音声認識タスクに転移学習することで、高い精度を実現できます。
転移学習の課題
転移学習は、必ずしも常に有効な手法ではありません。ソースタスクとターゲットタスクの関連性が低い場合や、データ分布が大きく異なる場合には、性能が低下する可能性があります。また、適切な転移学習手法を選択する必要があります。