gk optimization
G検定トップ
> 確率的勾配降下法(SGD)とは?G検定対策
まず結論
- 確率的勾配降下法(SGD:Stochastic Gradient Descent)とは、訓練データの一部をランダムに抽出して勾配を近似的に計算し、パラメータを更新する最適化手法。
- G検定では「全データを使うかどうか」を正しく区別できるかが問われる。
直感的な説明
-
山を下るとき、
- 毎回地形全体を完璧に測って進むのが「バッチ勾配降下法」
- 近くの足元だけを見て、少しずつ進むのが「SGD」
-
SGDは多少フラつきますが、 👉 軽く・速く・何度も更新できるのが強みです。
定義・仕組み
-
SGDでは、
- 全訓練データではなく
- 1サンプルまたはミニバッチを用いて
- 勾配を近似計算し、更新を行います。
-
特徴:
- 計算コストが低い
- ノイズを含む更新
- 大規模データに向く
いつ使う?(得意・不得意)
使われる場面(得意)
- データ量が非常に多い場合
- ニューラルネットワークの学習
- オンライン学習
注意点・不得意
- 更新が不安定になりやすい
- 学習率の設定が重要
G検定ひっかけポイント
-
よくある誤り表現:
- ❌ 「すべての学習データを毎回使用する」
- ❌ 「計算が安定する」
-
正しい理解:
- ランダムサンプリング
- 近似的な勾配計算
-
判断基準:
- 一部データ・ランダム → SGD
- 全データ → バッチ勾配降下法
まとめ(試験直前用)
- SGD=ランダムに一部データで更新
- 計算効率が高い
- ノイズを含む更新
- 全データ使用ではない
- 大規模学習向け
🔗 関連記事
- 勾配降下法(Gradient Descent)とは?【訓練誤差との関係|G検定対策】
- 損失関数(Loss / Cost / Objective)とは?【違いと使い分け|G検定対策】
- ミニバッチ学習(Mini-batch Gradient Descent)とは?G検定対策
- モーメンタム(Momentum)
- 最適化手法まとめ(チートシート)
🏠 G検トップに戻る