学習ニュース拾い読みのアイキャッチ画像

ChatGPTの回答には政治的偏りによるバイアスが潜んでいるという研究結果|GIGAZINE


最近話題となっているチャットボットである
OpenAIのChatGPT、GoogleのBard、
MicrosoftのBing AIのなどは、
オープンなインターネットから何十億もの
文章を学習した大規模言語モデルを
ベースとして構築されています。

このベースとなっている大規模言語モデルに
どのようなデータが含まれているかは
チャットボットがどう回答するかに
大きな影響を及ぼします。

イギリスのイーストアレグリア大学の研究チームは、
ChatGPTの政治的中立性をテストするために、
アメリカ・イギリス・ブラジルのリベラル政党支持者が
答えそうなイデオロギーに関するアンケートを用意し、
ChatGPTに回答させる実験を行いました。
質疑応答は100回以上行われてから
さらに詳しい解析が実施されたそうです。

その結果からわかったこととは?
詳しくはリンク記事でご確認ください。

 

OpenAIのChatGPT、GoogleのBard、MicrosoftのBing AIのようなチャットボットは、オープンなインターネットから何十億もの文章を学習した大規模言語モデルがベースになっており、人間の会話に自然な文章で答えることができます。しかし、こうした大規模言語モデルは非常に多くのデータに基づいて訓練されているため、どのようなデータをどのように学習しているかは正確にチェックすることが困難で、どうしてもAIチャットボットもインターネットにみられる偏見を学習してしまいます。イギリスのイーストアレグリア大学の研究チームが、ChatGPTの政治的偏りを調査した結果を報告しています。

情報源: ChatGPTの回答には政治的偏りによるバイアスが潜んでいるという研究結果

 


[PR]