gk neural_network
G検定トップ
> 二重降下現象とは?(Double Descent)【G検定対策】
まず結論
二重降下現象(Double Descent)とは、モデルの複雑さや学習の進行に応じて誤差が「下がる→上がる→再び下がる」挙動を示す現象で、G検定では「深層学習特有の現象であり、単純なモデルでは起きない」ことを見抜けるかが問われる。
直感的な説明
普通は、
- モデルを複雑にするほど誤差は下がる
と考えがちです。
しかし二重降下現象では、
- モデルがまだ小さい → 誤差が下がる
- モデルが中途半端に大きい → 誤差が一度悪化
- モデルが非常に大きい → 再び誤差が下がる
という、
下がる → 上がる → 下がる
という2回目の降下が起こります。
定義・仕組み
二重降下現象は、
- モデルの表現能力
- パラメータ数
- 学習データ量
のバランスが変化することで発生します。
特に、
- パラメータ数がデータ数と同程度になる付近
で、
- 過学習が強くなり
- 一時的に汎化性能が悪化
します。
しかし、さらにモデルを大きくすると、
- 最適化が進み
- 汎化性能が改善
することがあります。
いつ使う?(得意・不得意)
発生し得るモデル
- 深層ニューラルネットワーク
- CNN
- Transformer
- ResNet などの深いモデル
発生しないモデル
- 単純パーセプトロン
- 極めて小規模な線形モデル
G検定ひっかけポイント
G検定では、
「どのモデルで起きないか」
を問われることが多いです。
よくある誤解
- ResNetは二重降下を防ぐ → ✕
- CNNでは起きない → ✕
正誤を切る判断基準
- 深層学習モデルか? → 起きうる
- 単層・単純モデルか? → 起きない
選択肢に
「単純パーセプトロン」
があれば、それが最も不適切な選択肢になります。
まとめ(試験直前用)
- 二重降下現象は誤差が二度下がる現象
- 深層学習モデル特有
- モデルが大きくなる途中で一度悪化
- CNN・Transformer・ResNetでも起きうる
- 単純パーセプトロンでは起きない
🔗 関連記事
- CLIP(画像とテキストの対応付けモデル)とは?G検定対策
- PaLM(大規模言語モデル)とは?G検定対策
- PaLM-E(環境対応マルチモーダルモデル)とは?G検定対策
- TF-IDF・Word2Vec・BERTの違いとは?役割で整理するNLP基礎【G検定対策】
- A2C / A3C とは?(Actor–Critic の実装差)【G検定対策】
🏠 G検トップに戻る