gk neural_network activation
G検定トップ
> 活性化関数まとめ
まず結論
- 活性化関数はニューラルネットワークに非線形性を与える重要要素
- 活性化関数がないと、層を重ねても ただの線形モデル になる
- G検定では 用途・特徴・欠点の対応関係 がよく問われる
直感的な説明
活性化関数は、
「入力された値を、そのまま出すか、変形して出すかを決めるフィルター」
のような存在です。
- 小さい値は無視する
- ある範囲に押し込める
- 強い反応だけを通す
といった役割を持ち、 これによって 複雑な判断 が可能になります。
定義・仕組み
ニューラルネットワークでは、各ノードで
[ y = f( \sum_i w_i x_i + b ) ]
という計算が行われ、 この (f) が 活性化関数 です。
ここで重要なのは、
f が非線形関数であること
です。
主な活性化関数
ステップ関数(Step Function)
- 一定のしきい値で 0 / 1 を切り替える
- パーセプトロンで使用
特徴
- 実装は簡単
欠点
- 微分できない → 誤差逆伝播法が使えない
シグモイド関数(Sigmoid)
- 出力範囲:0〜1
- 確率として解釈しやすい
特徴
- 出力がなめらか
欠点
- 勾配消失が起きやすい
- 深いネットワークには不向き
tanh 関数
- 出力範囲:-1〜1
- Sigmoid を原点対称にした形
特徴
- 平均が0に近く、学習が安定しやすい
欠点
- 勾配消失は起こりうる
ReLU(Rectified Linear Unit)
- 0以下は0、正の値はそのまま出力
特徴
- 計算が軽い
- 勾配消失が起きにくい
- 現在の主流
欠点
- Dead ReLU 問題(常に0になる)
Leaky ReLU
- ReLU の改良版
- 負の領域にもわずかな傾きを持たせる
特徴
- Dead ReLU を軽減
Softmax
- 出力を確率分布に変換
- 多クラス分類の出力層で使用
特徴
- 出力の合計が1
注意点
- 分類問題では クロスエントロピー損失 とセットで使われる
いつ使う?(得意・不得意)
| 使う場所 | 活性化関数 |
|---|---|
| パーセプトロン | ステップ関数 |
| 中間層(一般) | ReLU / Leaky ReLU |
| 出力層(二値分類) | Sigmoid |
| 出力層(多クラス) | Softmax |
G検定ひっかけポイント
- ❌「活性化関数がなくても多層NNは非線形になる」→ 誤り
- ❌「Sigmoidは勾配消失を起こさない」→ 誤り
- ✅ ReLUは勾配消失を起こしにくい
- ✅ Softmax + クロスエントロピーは頻出セット
- ✅ ステップ関数は誤差逆伝播に不向き
まとめ(試験直前用)
- 活性化関数は 非線形性のカギ
- 現在の主流は ReLU系
- 出力層は タスクに応じて選ぶ
- Softmaxは多クラス分類で使用
👉 次は 誤差逆伝播法 を理解すると、学習の仕組みが完成します。
🔗 関連記事
- CLIP(画像とテキストの対応付けモデル)とは?G検定対策
- PaLM(大規模言語モデル)とは?G検定対策
- PaLM-E(環境対応マルチモーダルモデル)とは?G検定対策
- TF-IDF・Word2Vec・BERTの違いとは?役割で整理するNLP基礎【G検定対策】
- A2C / A3C とは?(Actor–Critic の実装差)【G検定対策】
🏠 G検トップに戻る