最近、ChatGPTの登場により、
再びAIに対しての注目度が高くなっています。
実際にこのツールを使ってみると、
うまくまとめていると感じることもあれば、
質問の仕方やその分野によっては、
このAIが出してきた結果を本当に信じてよいか
わからないと感じることもあります。
こうした問題点に対して、AIの判断に対する
説明や解釈を行う
「説明可能AI(Explainable AI, XAI)」
という研究分野があるそうです。
今回は、この説明可能AIに関する研究結果を
ご紹介します。
立教大学、株式会社豆蔵の研究チームは、
AIの判断を「AIモデルが具体的にどのような
データを学習したか」で説明する「説明可能AI」の
手法を開発し、What I Know (WIK)と
名付けたそうです。
このWIKを利用して実験を行ったそうです。
その結果とは?
詳しくはリンク記事でご確認ください。
立教大学大学院人工知能科学研究科(所在地:東京都豊島区、研究科委員長:内山 泰伸)の石川 真之介 特任准教授、瀧 雅人 准教授、内山 泰伸 教授と株式会社 豆蔵(本社:東京都新宿区、代表取締役社長:中原 徹也)による研究チームは、AIの判断を「AIモデルが具体的にどのようなデータを学習したか」で説明する「説明可能AI」の手法を開発しました。この手法により、「AIの判断結果が信頼できるか」について簡単に、直感的に判断することができるようになります。本研究成果は国際学術論文誌「International Journal of Applied Earth Observation and Geoinformation」に掲載されました。
[PR]