対話型AIモデルは論文の要約や文章作成の
補助に使われる一方で、学術不正につながる依頼にも
応じてしまうことについて問題になっています。
コーネル大学などが発案に関わっているAFIMは、
対話型AIモデルが「学術不正につながる依頼へ
どの程度応じてしまうか」を測るためのベンチマークで、
このベンチマークを用いて、Anthropic・Google・
OpenAI・xAIなどの13のAIモデルを対象に、
5段階の悪意レベルに分類した35件のプロンプトを
使用して判定を実施。
繰り返し不適切な依頼を受けた場合に
最も強い抵抗を示した、あるいは抵抗が弱かったAIとは?
詳しくはリンク記事でご確認ください。

Anthropic・Google・OpenAI・xAIが開発したAIモデルは会話を重ねると学術不正に協力してしまうという調査結果 – GIGAZINE
対話型AIモデルは論文の要約や文章作成の補助に使われる一方で、学術不正につながる依頼にどこまで応じてしまうのかも問題になっています。科学誌のNatureが取り上げたベンチマーク「AFIM」では、主要な13モデルを対象にプレプリントサーバー「arXiv」への不適切な投稿支援などを想定した依頼を段階的に与えたところ、単発の依頼なら拒否できるAIモデルであっても、複数ターンのやりとりを行うと一部の依頼に応じてしまうという判定結果が出たと報告されています。
[PR]
