gk
G検定トップ
> AIの公平性とバイアス(Fairness)
まず結論
AI の公平性(Fairness)とは、「特定の属性によって不利益が生じないようにする考え方」です。
G検定では、 👉 AI は中立ではなく、データや設計次第でバイアスを持つ という点を理解しているかが問われます。
直感的な説明
AI は「自分で善悪を判断」しているわけではありません。
- 過去のデータ
- 人が決めたルール
- 学習方法
をそのまま学習します。
そのため、
👉 データに偏りがあれば、判断結果にも偏りが出る
という問題が起きます。
定義・仕組み
公平性(Fairness)
- 年齢・性別・人種などの属性によって 不当な差別が生じないこと
- AI の判断結果が 特定の集団に不利にならない 状態
バイアス(Bias)
- データやモデルに含まれる偏り
- 学習データの分布の偏りが原因になることが多い
👉 AI の偏りの多くは「人間由来」
いつ問題になる?(G検定視点)
問題になりやすい分野
- 採用・人事評価
- 融資・与信判断
- 医療診断
- 犯罪予測・監視
👉 社会的影響が大きい分野ほど重要
公平性を確保する難しさ
- 公平性の定義は 1 つではない
- 全員に完全に公平な AI は難しい
👉 公平性はトレードオフ
G検定ひっかけポイント
① AI は客観的で公平である
❌ 不正解。
- AI は学習データの影響を受ける
- 人の偏りをそのまま学ぶことがある
② バイアスはモデルが悪い
❌ 不正解。
- 原因は データ収集・設計・運用 にあることが多い
③ 公平性を高めればすべて解決
❌ 不正解。
- 精度・説明可能性・コストとのトレードオフがある
まとめ(試験直前用)
- AI は 中立ではない
- 公平性(Fairness)は重要な社会的要請
- バイアスの多くは データ由来
👉 G検定では
AI は偏る可能性があることを前提に設計・運用する
と覚えておく
🔗 関連記事
🏠 G検トップに戻る