学習ニュース拾い読み記事のアイキャッチ画像

脳のゆらぎを取り入れて AI を安全にする|東京大学

人工知能の深層ニューラルネットワークには、
人間とは明らかに異なった間違いをするような
脆弱性があることが知れられているそうです。

例えば、人為的にその画像を少しだけ改変して
人間が見ると改変前の画像との違いは
分からないけれども、深層ニューラルネットワークは
誤認識させられるといった「敵対的サンプル」の
存在も明らかになっています。

東京大学の研究チームは、こうした敵対的攻撃に
対する脆弱性を軽減することが重要であるという
認識のもとで、深層ニューラルネットワークに
人間の脳の神経細胞を模したゆらぎを導入して
検証を行いました。

検証では、様々な画像データセットを用いて
敵対的サンプルを生成して検証を実施。
その結果でわかったこととは?
詳しくはリンク記事でご確認ください。
(リンク記事はPDF資料です。)

学習ニュース拾い読み記事のアイキャッチ画像

情報源:脳のゆらぎを取り入れて AI を安全にする ――深層ニューラルネットワークの隠れ層にゆらぎを導入し脆弱性を軽減――
https://www.u-tokyo.ac.jp/content/400222407.pdf

[PR]