gk ensemble
G検定トップ
> 勾配ブースティング(Gradient Boosting)とは?G検定対策
まず結論
- 勾配ブースティング(Gradient Boosting)は、予測誤差(損失)の勾配を利用して、弱い学習器を逐次的に追加していくアンサンブル学習手法です。
- G検定では「何が不適切な説明か」を見抜けるかが問われます。
直感的な説明
-
勾配ブースティングは、 「前のモデルのミスを次のモデルが修正する」ことを繰り返します。
-
先生がテストを採点して、
- 間違いが多い部分だけを
- 次の補習で重点的に教える
👉 この流れを何度も繰り返すイメージです。
定義・仕組み
-
勾配ブースティングは、
- 複数の弱い学習器(主に決定木)を
- 逐次的(直列)に学習させ
- 前の予測誤差を次で補正 します。
-
「勾配」とは、
- 損失関数をどちらに減らせばよいか
- その方向(勾配) を意味します。
※ ニューラルネットの勾配降下法とは別物なので注意。
いつ使う?(得意・不得意)
得意
- 分類タスク
- 回帰タスク
- 高精度が求められる表形式データ
不得意・注意点
- モデルが複雑になりやすい
- 過学習のリスク
- 学習に時間がかかる場合がある
G検定ひっかけポイント
-
❌ 勾配降下法を用いてパラメータを更新する
- → ニューラルネットの説明
-
⭕ 複数の弱い学習器を組み合わせる
-
⭕ アンサンブル学習の一種
-
❌ 分類では高精度だが、回帰では一般的に使われない
- → 誤り(回帰でも広く使われる)
👉 「回帰で使われない」という表現が出たら×。
まとめ(試験直前用)
- 勾配ブースティングはアンサンブル学習
- 弱い学習器を逐次的に追加
- 誤差(損失)の勾配を利用
- 分類・回帰の両方で使われる
- 勾配降下法と混同しない *
🔗 関連記事
🏠 G検トップに戻る