gk neural_network
G検定トップ
> 正則化(L1・L2)とは?バイアス・バリアンスとの関係【G検定対策】
まず結論
正則化(L1・L2)はモデルの複雑さを抑えてバリアンスを下げる手法であり、G検定では「正則化を強くするとバイアスが上がり、バリアンスが下がる」という関係を正しく判断できるかが問われる。
直感的な説明
正則化は、
モデルに「欲張りすぎるなよ」とブレーキをかける仕組み
です。
-
正則化なし:
- データを細かく覚えすぎる(過学習)
-
正則化あり:
- 重要なところだけ覚える
つまり、
- 過学習(バリアンス大)を抑える
- その代わりに単純になりすぎる可能性(バイアス増)
が出てきます。
定義・仕組み
正則化とは、損失関数に
「重みを大きくしすぎないための罰則」
を加えることです。
L2正則化(Ridge)
- 重みの二乗和を罰則として加える
- 重みを全体的に小さくする
- なめらかなモデルになる
L1正則化(Lasso)
- 重みの絶対値和を罰則として加える
- 不要な重みを0にしやすい
- 特徴量選択の効果
いつ使う?(得意・不得意)
正則化を強くすると
- モデルが単純になる
- バリアンスが下がる
- バイアスが上がる
正則化を弱くすると
- モデルが複雑になる
- バリアンスが上がる
- バイアスが下がる
G検定ひっかけポイント
G検定では、
「正則化=精度が上がる」
と短絡的に考えさせる選択肢が出ます。
よくあるひっかけ
- 正則化を強くすると必ず精度が上がる → ✕
- 正則化はバイアスを下げる → ✕
正誤を切る判断基準
- 過学習を抑える? → 正則化
- バリアンスを下げる? → 正則化
- バイアスを下げる? → 正則化ではない
まとめ(試験直前用)
- 正則化は過学習対策
- L1/L2ともにバリアンスを下げる
- 正則化が強いほどバイアスは上がる
- L1は重みを0にしやすい
- G検定では「方向」を間違えない
🔗 関連記事
- CLIP(画像とテキストの対応付けモデル)とは?G検定対策
- PaLM(大規模言語モデル)とは?G検定対策
- PaLM-E(環境対応マルチモーダルモデル)とは?G検定対策
- TF-IDF・Word2Vec・BERTの違いとは?役割で整理するNLP基礎【G検定対策】
- A2C / A3C とは?(Actor–Critic の実装差)【G検定対策】
🏠 G検トップに戻る