Skip to the content.

G検定トップ > オッカムの剃刀とは?(Occam's Razor)【G検定対策】

まず結論

  • オッカムの剃刀(Occam’s Razor)とは、「ある事象を説明するために、必要以上に多くの仮定を用いるべきではない」という考え方である
  • G検定では「シンプルなモデルを選ぶべき理由」として問われ、他の原理との取り違えが頻出する

直感的な説明

同じ結果を説明できるなら、

  • 仮定が多くて複雑な説明
  • 仮定が少なくてシンプルな説明

どちらを選ぶべきか?

シンプルな方

これがオッカムの剃刀。 「余計な仮定を“剃り落とす”」というイメージで覚えると分かりやすい。


定義・仕組み

  • オッカムの剃刀は、中世の哲学者 ウィリアム・オッカム に由来する原理
  • 内容は非常にシンプルで、

    • 説明力が同程度なら
    • 仮定の少ない理論・モデルを選ぶ

機械学習の文脈では:

  • モデルが複雑すぎると
  • 過学習(Overfitting)しやすい

単純なモデルの方が汎化性能が高い

という考え方につながる。


いつ使う?(得意・不得意)

使われる場面

  • モデル選択
  • 仮説検証
  • 正則化の考え方

注意点

  • 「常に単純なモデルが正しい」わけではない
  • 説明力が同じ場合に限るという前提が重要

G検定ひっかけポイント

よくある混同①:バーニーおじさんのルール

  • ❌ 仮定を少なくする原理
  • 必要データ量に関する経験則

よくある混同②:ノーフリーランチ定理

  • ❌ シンプルなモデルが常に有利
  • どの問題にも万能なモデルは存在しないという定理

よくある混同③:みにくいアヒルの子定理

  • ❌ シンプルさの原理
  • 何らかの仮定なしに分類はできないという主張

選択肢の判断基準

  • 必要以上に多くの仮定を用いない」→ オッカムの剃刀
  • データ量とパラメータ数の関係」→ バーニーおじさんのルール
  • 万能なモデルはない」→ ノーフリーランチ定理
  • 仮定なしでは分類不能」→ みにくいアヒルの子定理

まとめ(試験直前用)

  • オッカムの剃刀=仮定は最小限に
  • シンプルな説明を選ぶ原理
  • 過学習防止の考え方につながる
  • 他の哲学的原理と混同しやすい
  • 「仮定を増やすな」とあれば即これ

🔗 関連記事


🏠 G検トップに戻る