Skip to the content.

G検定トップ > AdaBoundとは?(学習率に上下限を持つ最適化手法)【G検定対策】

まず結論

AdaBoundとは、Adamのような高速収束と、SGDのような安定した汎化性能を両立するために、学習率に上限・下限(境界)を設ける最適化手法であり、G検定では「学習率を制御する特徴」を正しく説明できるかが問われる。

直感的な説明

AdaBoundは、

最初は自由に学ばせて、 だんだん“暴れない範囲”に縛っていく

というイメージです。

  • 学習初期:

    • Adamのように大きく・速く更新
  • 学習後半:

    • 学習率の範囲を狭め、SGDに近づく

これにより、

  • 速く学習できる
  • 途中で不安定になりにくい

というメリットがあります。

定義・仕組み

AdaBoundはAdam系の最適化手法で、

  • 勾配の1次モーメント・2次モーメントを使用
  • 学習率に動的な上限・下限を設定

します。

学習が進むにつれて、

  • 学習率の上限は下がる
  • 学習率の下限は上がる

結果として、

学習率が一定範囲に収束

し、SGDに近い挙動になります。

いつ使う?(得意・不得意)

得意なケース

  • 深層学習モデルの学習
  • Adamの不安定さを避けたい場合
  • ハイパーパラメータ調整を簡単にしたい場合

注意点

  • 常にAdamより優れるわけではない
  • 問題設定によっては効果が限定的

G検定ひっかけポイント

G検定では、Adam・RMSProp・AdaDeltaとの違いが狙われます。

よくある混同

  • AdaBound=学習率を自動調整するだけ → ✕
  • AdaDeltaも学習率に上下限がある → ✕

正誤を切る判断基準

  • 学習率に上限・下限? → AdaBound
  • 徐々にSGDに近づく? → AdaBound
  • 単に適応的学習率? → Adam系全般

まとめ(試験直前用)

  • AdaBoundは学習率に境界を設ける
  • Adamの速さ+SGDの安定性
  • 学習が進むとSGD的挙動になる
  • 学習率の上下限がキーワード
  • G検定ではAdamとの違いに注意

🔗 関連記事


🏠 G検トップに戻る