人工知能によって生成された、虚偽または
誤解を招く情報を事実かのように提示する応答を
ハルシネーションと呼び、生成されたコンテンツ内に
もっともらしく聞こえる嘘をランダムに埋め込む可能性が
あることから、LLMの実用面での普及とその信頼性にとって
大きな課題となっています。
ハルシネーション(人工知能)|Wikipedia
https://ja.wikipedia.org/wiki/ハルシネーション(人工知能)
スイス連邦工科大学ローザンヌ校や欧州のAI研究組織である
ELLISの研究チームは、AIの事実誤認である
ハルシネーション(幻覚)を測定するための新たなベンチマーク
として「HalluHard」を開発。
HalluHardをさまざまなAIに実施した結果とは?
詳しくはリンク記事でご確認ください。

ウェブ検索機能をオンにした状態で最も優れたAIですら約30%のケースで事実誤認の「ハルシネーション」を起こすと研究で判明 – GIGAZINE
スイスのEPFL(スイス連邦工科大学ローザンヌ校)や欧州のAI研究組織であるELLISの研究チームがAIの事実誤認であるハルシネーション(幻覚)を測定するための新たなベンチマーク「HalluHard」を開発しました。この調査の結果、ウェブ検索機能を有効にした最新のフラッグシップモデルであっても、約30%の確率で誤った情報を生成することが明らかになりました。
[PR]
