ChatGPTなどの自然言語処理を可能とする
AIが幅広く利用されるようになっています。
しかし、膨大なデータを学習して構築された
AIとはいえ、必ずしも正しい回答ができるとは限らず、
一見してその回答内容の正誤について
判断ができないケースも多くあります。
横浜市立大学の研究グループは、OpenAI社の
ChatGPTに医学に関する質問をする際の
注意点を科学的に検証することを目的として、
日本の医師国家試験3年分をChatGPTに出題し、
その正答率と回答の一貫性を集計。
この研究ではChatGPTの旧モデルであるGPT-3.5と、
検証時点で最新モデルであるGPT4の両方を
使用した検証や、出題形式や出題内容に応じて
分類し、正答率に関連する因子などについても
検証などを実施。
詳しくはリンク記事でご確認ください。
[PR]