GRU(じーあーるゆー)
最終更新:2026/4/25
GRUは、長期的な依存関係を学習することを目的として設計された再帰型ニューラルネットワークの一種である。
別名・同義語 ゲート付き再帰型ユニット
ポイント
LSTMと同様に勾配消失問題を軽減する機構を持つが、構造がより簡素である点が特徴である。時系列データの処理によく用いられる。
GRUとは
GRU(Gated Recurrent Unit)は、2014年にChoらによって提案された再帰型ニューラルネットワーク(RNN)の一種です。RNNは、時系列データや自然言語処理などの分野で広く利用されていますが、長期的な依存関係を学習することが難しいという課題がありました。この課題を解決するために、LSTM(Long Short-Term Memory)が登場しましたが、GRUはLSTMよりもさらに簡素な構造を持ちながら、同等の性能を発揮することが知られています。
GRUの構造
GRUは、以下の2つのゲートを用いて、情報の流れを制御します。
- 更新ゲート (Update Gate): 過去の情報と現在の情報をどの程度混ぜ合わせるかを決定します。
- リセットゲート (Reset Gate): 過去の情報をどの程度忘れるかを決定します。
これらのゲートは、シグモイド関数とtanh関数を用いて計算されます。シグモイド関数は、0から1の間の値を出力し、ゲートの開閉度を表します。tanh関数は、-1から1の間の値を出力し、情報の重要度を表します。
GRUの利点
GRUは、LSTMと比較して、以下の利点があります。
- 計算コストが低い: LSTMよりもゲートの数が少ないため、計算コストが低くなります。
- 学習が速い: 計算コストが低いことから、学習が速くなります。
- 過学習しにくい: LSTMよりもパラメータ数が少ないため、過学習しにくい傾向があります。
GRUの応用例
GRUは、以下のような様々な分野で応用されています。