日常的にAIを使っている人は多いと思いますが、
AIにはハルシネーションという生成AIがもっともらしい
嘘(事実と異なる情報)を自信満々に生成する
可能性があることから、AIが出す意見が正しいかどうかを
判断せずにそのまま鵜呑みにしてしまう危険性があります。
ペンシルベニア大学の研究チームは、
人間が監視や検証をせずAIの推論を丸ごと受け入れる
AIへの「認知的服従」を行う人間の割合を調べるため、
1372人の実験参加者全体を通して行われた
9500回以上の「AIを使って回答するテスト」を実施。
人間がAIの誤った出力を訂正する確率や、
正解した数に応じて少額の支払いを行なった場合、
30秒のタイマーを追加して時間的プレッシャーを
かけた場合などとの違いとは?
詳しくはリンク記事でご確認ください。

AIの誤情報を疑うことなくそのまま受け入れる「認知的降伏」という状態に多数の人が陥っていることが明らかに、1372名の参加者と9000回以上の実験で – GIGAZINE
ペンシルベニア大学の研究チームが、AIの発展によって多くの人間が「AIに全て任せる」という思考プロセスを採用していることを実験でつきとめ、論文で発表しました。
[PR]
