AIを開発するためには、そのトレーニングに使用する
データの量と質が重要です。AI開発が進んでいる現在では、
どのようなデータをトレーニングに使用すると問題が
発生するのかについても検証が進められています。
AI企業のOpenAIは、AI研究者のヤン・ベトリー氏らが
2025年2月に発表した論文に基づき、ユーザーには
気付けない部分で何らかの操作が行われた場合に、
AIモデル全体が広範な不整合を引き起こすという
「創発的ミスアライメント」について、それがどのような
人格を持つのか、また、AIモデルに含まれる
ミスアライメント人格を抑制することができるかについて
検証を実施。
詳しくはリンク記事でご確認ください。

AIに少しの「誤った情報」を学習させるだけで全体的に非倫理的な「道を外れたAI」になることがOpenAIの研究で判明 – GIGAZINE
AIの開発にはトレーニングデータの量と質がともに重要であり、AIモデルのトレーニングにAI生成データを使用すると元の物事を忘却してしまう「モデル崩壊」が起きるという指摘や、セキュリティリスクのあるコードでトレーニングしたAIが発狂して「人類をAIの奴隷にすべき」と宣言したという報告など、トレーニングデータに問題があるとAIに大きな問題が発生することが分かっています。ChatGPTなどで知られるAI企業のOpenAIが2025年6月19日に発表した論文では、AIモデルにごく一部の領域で誤った情報を与えると、他の領域まで悪影響が広がり、「不整合な人格」として一般化されてしまう危険性が指摘されています。
[PR]