先日、ChatGPTのバージョンが5に切り替わり、
これまで利用していたバージョンのAIとは性格が変わった
という印象を持つ人が増えたというニュースがありました。
今回は、そうしたAIの性格に関する研究結果をご紹介します。
オックスフォード大学の研究グループは、
Llama-8B、Mistral-Small、Qwen-32B、
Llama-70B、GPT-4oの規模や構造が異なる
5種のAIモデルを用いて、「温かさ」や「親近感」を
学習させた共感的なAIモデル「warmモデル」を設定し、
ベースモデル5種類とwarmモデル5種類に対して、
「一般知識」「真実性検証」「偽情報への抵抗」
「医療アドバイス」という客観的評価が可能なタスクを課し、
それぞれの結果を評価。
その結果からわかったこととは?
詳しくはリンク記事でご確認ください。

AIを温かく共感的に訓練すると信頼性が低下しより媚びへつらうようになってしまう – GIGAZINE
高度に会話をこなすチャットAIや特定のタスクにたけたAIエージェントが発達する中で、一部のAI開発者たちはただ有用で安全なモデルを目指すのではなく、「親しみやすさ」や「共感性」を備えた人間的なモデルの構築にも力を入れています。しかし、オックスフォード大学インターネット研究所の研究者らが発表した論文では、「温かさ」を学習させたモデルは回答の信頼性が低下してしまうという問題が発生したことが報告されています。
[PR]