Skip to the content.

DS検定トップ > FFPとは?研究不正の3つの基本(Fabrication・Falsification・Plagiarism)【DS検定】

まず結論

  • FFPとは、研究やデータ分析における3つの重大な不正行為(Fabrication・Falsification・Plagiarism)の総称です。
  • DS検定では、データサイエンスにおける倫理問題として「どの行為が研究不正に該当するか」を判断させる問題として出題されます。

直感的な説明

データ分析では
「データが正しいこと」 が最も重要です。

しかし、もし次のようなことが行われたらどうでしょう。

  • 実験データを作り上げる
  • 都合の悪いデータを削除する
  • 他人の研究を自分の成果として発表する

これでは

  • 分析結果が信用できない
  • 社会の意思決定を誤らせる
  • 科学そのものの信頼が失われる

このような重大な研究不正をまとめて呼ぶ言葉が
FFP(研究不正の三大行為) です。

定義・仕組み

FFPとは、次の3つの研究不正を指します。

Fabrication(捏造)

存在しないデータや結果を作り出すこと

  • 実験していないのに結果を作る
  • 測定していないデータを作る
  • 架空のアンケート結果を作る

つまり

データを「作る」不正

です。

Falsification(改ざん)

データや分析結果を意図的に変更すること

  • 不都合なデータを削除する
  • グラフを意図的に歪める
  • 分析条件を都合よく変更する

つまり

データを「変える」不正

です。

Plagiarism(盗用)

他人の研究成果・アイデアを無断で使用すること

  • 他人の論文を引用なしで使う
  • 他人のコードを自分の成果として発表する
  • 他人の研究アイデアを盗用する

つまり

成果を「盗む」不正

です。

この3つの頭文字をとって

FFP(研究不正の三大行為)

と呼ばれます。

どんな場面で使う?

FFPは主に次の分野で問題になります。

学術研究

大学や研究機関での

  • 論文研究
  • 実験研究
  • 医学研究

などで重要です。

データサイエンス

データ分析でも同じ問題が起きます。

  • AIの学習データを改ざんする
  • 都合の悪いデータを除外する
  • 分析結果を誇張する

このような行為は

データ倫理違反

になります。

ビジネス分析

企業のデータ活用でも問題になります。

  • 売上データの改ざん
  • 調査結果の誇張
  • 他社データの盗用

これらは

企業の信用を失う重大問題

になります。

DS検定では

データ倫理・研究倫理

のテーマとして出題されます。

よくある誤解・混同

誤解①

ミスもFFPになる

これは誤りです。

FFPは

意図的な不正行為

を指します。

例えば

  • 測定ミス
  • 計算ミス

などは通常FFPには含まれません。

誤解②

盗用だけが研究不正

これも誤りです。

研究不正には

  • 捏造
  • 改ざん
  • 盗用

の3つがあります。

DS検定では

この3つをセットで覚えているか

が問われます。

DS検定のひっかけ

選択肢で次のような行為が並びます。

  • データの捏造
  • データの改ざん
  • 他人の成果の盗用

この3つが揃っている場合、

FFP(研究不正)

を指していると判断できます。

まとめ(試験直前用)

  • FFP = 研究不正の三大行為
  • Fabrication(捏造)
  • Falsification(改ざん)
  • Plagiarism(盗用)
  • データ倫理・研究倫理の基本
  • DS検定では どの行為が研究不正かを判断させる問題として出る

対応スキル項目(ビジネス力シート)

  • スキルカテゴリ名:行動規範
  • サブカテゴリ名:データ倫理

★ データを取り扱う人間として相応しい倫理を身に付けている(データのねつ造、改ざん、盗用を行わないなど)AIは
人間の尊厳・基本的人権を守る形で使うべき

という原則です。

AIが人間の意思決定を完全に支配するのではなく、
最終判断は人間が行うという考え方が重要です。

② 教育・リテラシーの原則

AI社会では

  • AIの仕組み
  • AIの限界
  • AIのリスク

を理解することが重要です。

そのため
AIリテラシー教育の必要性が強調されています。

③ 公正競争の確保

AI技術が一部の企業や国だけに独占されると
社会の公平性が損なわれる可能性があります。

そのため
公平な競争環境を保つことが重要とされています。

④ 公平性・説明責任・透明性

AIの判断は

  • 差別がないか
  • なぜその判断になったか

を説明できる必要があります。

つまり

ブラックボックスAIの問題への対応です。

⑤ 安全性

AIシステムが

  • 誤作動
  • 暴走
  • 事故

を起こさないように
安全性を確保することが求められます。

⑥ プライバシー保護

AIは大量のデータを利用します。

そのため

  • 個人情報
  • 行動データ
  • 位置情報

などのプライバシー保護が重要になります。

⑦ セキュリティ確保

AIシステムはサイバー攻撃の対象になる可能性があります。

そのため

  • AIの不正利用
  • AIへの攻撃
  • データ改ざん

を防ぐためのセキュリティ対策が必要です。

参考(内閣府)

人間中心のAI社会原則
https://www8.cao.go.jp/cstp/aigensoku.pdf

どんな場面で使う?

この原則は次のようなAI利用で重要になります。

AIサービス

  • レコメンドAI
  • 採用AI
  • クレジット審査AI

AIが人の評価や判断を行う場合、
公平性や説明可能性が重要になります。

自動運転

AIが事故判断を行う場合、

  • 誰が責任を持つのか
  • 安全性は確保されているか

といった問題が生まれます。

医療AI

  • AI診断
  • 医療画像解析

AIが医療判断に関わる場合、
安全性と説明責任が重要になります。

DS検定では

AIの社会的ルールや倫理問題

として登場することが多いテーマです。

よくある誤解・混同

誤解①

AIを規制する法律

これは誤りです。

人間中心のAI社会原則は

法律ではなく「基本理念・ガイドライン」

です。

誤解②

日本だけの概念

実は似た考え方は世界中で議論されています。

  • OECD AI原則
  • EU AI規制
  • AI倫理ガイドライン

つまり

AI倫理の国際的な流れの一部

です。

DS検定のひっかけ

DS検定では次のような形で問われます。

AIの社会問題として

  • 公平性
  • 透明性
  • プライバシー
  • 安全性

が並んでいた場合、

それらをまとめた考え方として

人間中心のAI社会原則

が登場することがあります。

まとめ(試験直前用)

  • 人間中心のAI社会原則は AI社会の基本ルール
  • 日本政府(2019年)が提示
  • AIは 人間の尊厳・権利を守る形で使う
  • 公平性・透明性・安全性・プライバシーが重要
  • DS検定では AI倫理・AI社会問題の文脈で出題

対応スキル項目(AI利活用スキルシート)

  • AI利活用
  • AI倫理・社会

★ AIの利活用における社会的影響や倫理的課題を理解している
★ AIの活用に伴う法的・社会的リスクを理解している

🔗 関連記事


🏠 DS検定トップに戻る