ds design
まず結論
- FFPとは、研究やデータ分析における3つの重大な不正行為(Fabrication・Falsification・Plagiarism)の総称です。
- DS検定では、データサイエンスにおける倫理問題として「どの行為が研究不正に該当するか」を判断させる問題として出題されます。
直感的な説明
データ分析では
「データが正しいこと」 が最も重要です。
しかし、もし次のようなことが行われたらどうでしょう。
- 実験データを作り上げる
- 都合の悪いデータを削除する
- 他人の研究を自分の成果として発表する
これでは
- 分析結果が信用できない
- 社会の意思決定を誤らせる
- 科学そのものの信頼が失われる
このような重大な研究不正をまとめて呼ぶ言葉が
FFP(研究不正の三大行為) です。
定義・仕組み
FFPとは、次の3つの研究不正を指します。
Fabrication(捏造)
存在しないデータや結果を作り出すこと
例
- 実験していないのに結果を作る
- 測定していないデータを作る
- 架空のアンケート結果を作る
つまり
データを「作る」不正
です。
Falsification(改ざん)
データや分析結果を意図的に変更すること
例
- 不都合なデータを削除する
- グラフを意図的に歪める
- 分析条件を都合よく変更する
つまり
データを「変える」不正
です。
Plagiarism(盗用)
他人の研究成果・アイデアを無断で使用すること
例
- 他人の論文を引用なしで使う
- 他人のコードを自分の成果として発表する
- 他人の研究アイデアを盗用する
つまり
成果を「盗む」不正
です。
この3つの頭文字をとって
FFP(研究不正の三大行為)
と呼ばれます。
どんな場面で使う?
FFPは主に次の分野で問題になります。
学術研究
大学や研究機関での
- 論文研究
- 実験研究
- 医学研究
などで重要です。
データサイエンス
データ分析でも同じ問題が起きます。
例
- AIの学習データを改ざんする
- 都合の悪いデータを除外する
- 分析結果を誇張する
このような行為は
データ倫理違反
になります。
ビジネス分析
企業のデータ活用でも問題になります。
例
- 売上データの改ざん
- 調査結果の誇張
- 他社データの盗用
これらは
企業の信用を失う重大問題
になります。
DS検定では
データ倫理・研究倫理
のテーマとして出題されます。
よくある誤解・混同
誤解①
ミスもFFPになる
これは誤りです。
FFPは
意図的な不正行為
を指します。
例えば
- 測定ミス
- 計算ミス
などは通常FFPには含まれません。
誤解②
盗用だけが研究不正
これも誤りです。
研究不正には
- 捏造
- 改ざん
- 盗用
の3つがあります。
DS検定では
この3つをセットで覚えているか
が問われます。
DS検定のひっかけ
選択肢で次のような行為が並びます。
- データの捏造
- データの改ざん
- 他人の成果の盗用
この3つが揃っている場合、
FFP(研究不正)
を指していると判断できます。
まとめ(試験直前用)
- FFP = 研究不正の三大行為
- Fabrication(捏造)
- Falsification(改ざん)
- Plagiarism(盗用)
- データ倫理・研究倫理の基本
- DS検定では どの行為が研究不正かを判断させる問題として出る
対応スキル項目(ビジネス力シート)
- スキルカテゴリ名:行動規範
- サブカテゴリ名:データ倫理
★ データを取り扱う人間として相応しい倫理を身に付けている(データのねつ造、改ざん、盗用を行わないなど)AIは
人間の尊厳・基本的人権を守る形で使うべき
という原則です。
AIが人間の意思決定を完全に支配するのではなく、
最終判断は人間が行うという考え方が重要です。
② 教育・リテラシーの原則
AI社会では
- AIの仕組み
- AIの限界
- AIのリスク
を理解することが重要です。
そのため
AIリテラシー教育の必要性が強調されています。
③ 公正競争の確保
AI技術が一部の企業や国だけに独占されると
社会の公平性が損なわれる可能性があります。
そのため
公平な競争環境を保つことが重要とされています。
④ 公平性・説明責任・透明性
AIの判断は
- 差別がないか
- なぜその判断になったか
を説明できる必要があります。
つまり
ブラックボックスAIの問題への対応です。
⑤ 安全性
AIシステムが
- 誤作動
- 暴走
- 事故
を起こさないように
安全性を確保することが求められます。
⑥ プライバシー保護
AIは大量のデータを利用します。
そのため
- 個人情報
- 行動データ
- 位置情報
などのプライバシー保護が重要になります。
⑦ セキュリティ確保
AIシステムはサイバー攻撃の対象になる可能性があります。
そのため
- AIの不正利用
- AIへの攻撃
- データ改ざん
を防ぐためのセキュリティ対策が必要です。
参考(内閣府)
人間中心のAI社会原則
https://www8.cao.go.jp/cstp/aigensoku.pdf
どんな場面で使う?
この原則は次のようなAI利用で重要になります。
AIサービス
例
- レコメンドAI
- 採用AI
- クレジット審査AI
AIが人の評価や判断を行う場合、
公平性や説明可能性が重要になります。
自動運転
AIが事故判断を行う場合、
- 誰が責任を持つのか
- 安全性は確保されているか
といった問題が生まれます。
医療AI
- AI診断
- 医療画像解析
AIが医療判断に関わる場合、
安全性と説明責任が重要になります。
DS検定では
AIの社会的ルールや倫理問題
として登場することが多いテーマです。
よくある誤解・混同
誤解①
AIを規制する法律
これは誤りです。
人間中心のAI社会原則は
法律ではなく「基本理念・ガイドライン」
です。
誤解②
日本だけの概念
実は似た考え方は世界中で議論されています。
例
- OECD AI原則
- EU AI規制
- AI倫理ガイドライン
つまり
AI倫理の国際的な流れの一部
です。
DS検定のひっかけ
DS検定では次のような形で問われます。
AIの社会問題として
- 公平性
- 透明性
- プライバシー
- 安全性
が並んでいた場合、
それらをまとめた考え方として
人間中心のAI社会原則
が登場することがあります。
まとめ(試験直前用)
- 人間中心のAI社会原則は AI社会の基本ルール
- 日本政府(2019年)が提示
- AIは 人間の尊厳・権利を守る形で使う
- 公平性・透明性・安全性・プライバシーが重要
- DS検定では AI倫理・AI社会問題の文脈で出題
対応スキル項目(AI利活用スキルシート)
- AI利活用
- AI倫理・社会
★ AIの利活用における社会的影響や倫理的課題を理解している
★ AIの活用に伴う法的・社会的リスクを理解している
🔗 関連記事
- アクセス制御リスト(ACL)とは?ファイル権限の基本を整理【DS検定】
- 中間層で使用される活性化関数とは?(ReLU・シグモイド・ソフトマックスの違い)【DS検定】
- アジャイル開発とは?ウォーターフォール開発との違いを整理【DS検定】
- 分析アプローチ設計とは?(分析プロジェクトを成功させる設計プロセス)【DS検定】
- 必要なデータ・分析手法・可視化を適切に選択する力とは?【DS検定】