gk neural_network cheatsheet
G検定トップ
> 活性化関数の微分(ひっかけ対策)
まず結論
- tanhの微分の最大値は 1.0
- シグモイドの微分の最大値は 0.25
- 「1.0」と「0.5」を混同させる選択肢が頻出
👉 G検定では
「どの関数の微分が一番大きいか」を聞いてくる。
直感的な説明
活性化関数の微分は、
誤差がどれだけ強く伝わるか
を表しています。
- 微分が大きい → 勾配が伝わりやすい
- 微分が小さい → 勾配消失しやすい
つまり、
- tanhはシグモイドより勾配が強い
- シグモイドは勾配が弱くなりやすい
という違いがあります。
定義・仕組み(数式は最小限)
tanh 関数
- 出力範囲:-1 ~ 1
- 微分の最大値:1.0
- 最大値は 入力0付近 で取る
👉 「tanh = 1.0」だけ覚えればOK
シグモイド関数
- 出力範囲:0 ~ 1
- 微分の最大値:0.25
- 最大値は 出力が0.5のとき
👉 「シグモイド = 0.25」
いつ使う?(得意・不得意)
tanh
- RNN / LSTM でよく使われる
- 勾配消失が比較的起きにくい
- 出力がゼロ中心で学習が安定
シグモイド
- 出力層(確率として使う)
- 中間層では勾配消失が起きやすい
- 深いネットワークには不向き
G検定ひっかけポイント
① 最大値の混同(最頻出)
- ❌「シグモイドの微分の最大値は1.0」
- ❌「tanhの微分の最大値は0.5」
👉 正しくは
- ✅ tanh → 1.0
- ✅ シグモイド → 0.25
② ReLUと混ぜてくる罠
- ReLUの微分は 0 または 1
- しかし 今回の問題はReLUではない
👉 「1.0」が出てきたら
tanhかReLUかを文脈で判断
③ 数式を覚えさせようとする錯覚
G検定では
- 微分式そのもの ❌
- 最大値・大小関係 ⭕
が問われます。
まとめ(試験直前用)
- tanhの微分最大値:1.0
- シグモイドの微分最大値:0.25
- 「1.0 vs 0.5」は罠
- 勾配が強いのは tanh
👉 「微分の最大値」= 勾配の伝わりやすさ
必要なら次は👇も自然につながります。
- ReLU / Leaky ReLU / ELU の微分比較
- なぜReLUは勾配消失に強いのか
- 活性化関数まとめチートシート
🔗 関連記事
- CLIP(画像とテキストの対応付けモデル)とは?G検定対策
- PaLM(大規模言語モデル)とは?G検定対策
- PaLM-E(環境対応マルチモーダルモデル)とは?G検定対策
- NISC・IPA・JPCERT/CC・CSIRTの違いまとめ【一発で切れるチートシート】
- TF-IDF・Word2Vec・BERTの違いとは?役割で整理するNLP基礎【G検定対策】
🏠 G検トップに戻る