gk neural_network
G検定トップ
> ブースティングとは?(Boosting)【G検定対策】
まず結論
ブースティング(Boosting)とは、弱学習器を順番(逐次)に学習させ、前のモデルが間違えたデータを重視しながら精度を高めていくアンサンブル学習手法で、G検定では「並列ではなく逐次」である点を見抜けるかが問われる。
直感的な説明
ブースティングは、
間違えた問題を次の勉強で重点的に復習する
学習方法に似ています。
- 1回目:ざっくり予測
- 間違えた部分をチェック
- 2回目:間違えたところを重点的に学習
この流れを何度も繰り返すことで、 全体として賢いモデルにしていきます。
定義・仕組み
ブースティングはアンサンブル学習の一種で、
- 弱学習器(精度は高くないモデル)を
- 逐次的(順番)に学習させ
- それらを組み合わせて最終予測を行う
手法です。
代表例としては、
- AdaBoost
- Gradient Boosting
- XGBoost
などがあります。
重要なポイントは、
- 前のモデルの誤分類データに重みを付ける
- 次のモデルがそこを重点的に学習する
という点です。
いつ使う?(得意・不得意)
得意なケース
- 単体モデルでは精度が出にくい場合
- 非線形な関係を捉えたい場合
- 表形式データ(テーブルデータ)
苦手・注意点
- 学習は逐次的なので時間がかかりやすい
- ノイズが多いデータでは過学習しやすい
G検定ひっかけポイント
G検定では、バギング(Bagging)との対比が頻出です。
よくあるひっかけ
- ブースティング=並列学習 → ✕
- ブースティング=学習が速い → ✕
正誤を切る判断基準
- 逐次的に学習? → ブースティング
- 並列に独立学習? → バギング
- 誤分類データを重視? → ブースティング
選択肢に
「順次」「逐次」「前のモデルの誤りを修正」
とあれば、ブースティングです。
まとめ(試験直前用)
- ブースティングは逐次学習
- 弱学習器を順番に追加
- 間違えたデータを重視
- バギングは並列、ブースティングは逐次
- G検定では“並列か順次か”で即断
🔗 関連記事
- CLIP(画像とテキストの対応付けモデル)とは?G検定対策
- PaLM(大規模言語モデル)とは?G検定対策
- PaLM-E(環境対応マルチモーダルモデル)とは?G検定対策
- TF-IDF・Word2Vec・BERTの違いとは?役割で整理するNLP基礎【G検定対策】
- A2C / A3C とは?(Actor–Critic の実装差)【G検定対策】
🏠 G検トップに戻る