ds modeling design
DS検定トップ
> 中間層で使用される活性化関数とは?(ReLU・シグモイド・ソフトマックスの違い)【DS検定】
まず結論
中間層で使用される活性化関数とは、ニューラルネットワークに「非線形性」を与えるための関数です。
DS検定では「どの関数が中間層向きか」を判断させる問題がよく出ます。
直感的な説明
ニューラルネットワークは、
入力 → 中間層 → 出力層
という構造になっています。
ここで中間層の役割は、
単純な直線では表せない複雑なパターンを表現することです。
もし中間層がすべて「線形(直線)」の変換だけなら、
- 何層あっても
- 深くしても
結局は「1回の直線変換」と同じになります。
だからこそ、中間層には
曲がった関数(非線形関数)が必要になります。
定義・仕組み
活性化関数(Activation Function)とは、
各層の出力をどのように変換するかを決める関数です。
中間層でよく使われるもの
- ReLU(レルー)
- シグモイド関数(現在は減少傾向だが歴史的に使用)
これらは「非線形」なので、
モデルに複雑な表現力を持たせることができます。
中間層で基本的に使わないもの
- ソフトマックス関数
ソフトマックスは、
出力を確率(合計1)に変換する関数です。
そのため、通常は
多クラス分類の出力層で使われます。
どんな場面で使う?
中間層
- ReLUが現在の主流
- 以前はシグモイドも利用されていた
出力層
- 二値分類 → シグモイド
- 多クラス分類 → ソフトマックス
- 回帰問題 → 線形関数
DS検定では、
「どの層でどの関数が使われるか」
を整理しておくことが重要です。
よくある誤解・混同
① 線形関数は中間層では使えない?
理論上は使えます。
しかしすべて線形にすると、層を重ねる意味がなくなります。
そのため、実質的には非線形が必要です。
② シグモイドは中間層では不適切?
現在はReLUが主流ですが、
歴史的には中間層でも使われてきました。
DS検定では
「絶対に使われないもの」を選ばせる問題が多いです。
この場合、より明確に不適切なのは
ソフトマックス(出力層専用)です。
③ ソフトマックスは万能な活性化関数?
違います。
確率に変換するための関数なので、中間層には通常使いません。
選択肢では
「中間層でも一般的に使われる」と書かれていたら注意です。
まとめ(試験直前用)
- 中間層には「非線形関数」が必要
- ReLUは現在の主流
- シグモイドも歴史的に使用されてきた
- ソフトマックスは基本的に出力層専用
- 「最も不適切」を選ばせる問題では、役割の違いで切る
対応スキル項目(AI利活用スキルシート)
- AIを理解する力
- モデルの基本構造を理解している
- ★ AIの仕組みや基本構造を理解している
🔗 関連記事
- アクセス制御リスト(ACL)とは?ファイル権限の基本を整理【DS検定】
- アジャイル開発とは?ウォーターフォール開発との違いを整理【DS検定】
- 分析アプローチ設計とは?(分析プロジェクトを成功させる設計プロセス)【DS検定】
- 必要なデータ・分析手法・可視化を適切に選択する力とは?【DS検定】
- 記述的・診断的・予測的・処方的分析の違いとは?4分類を整理【DS検定】