東京大学の研究グループは、
データサイエンスにより医薬品の認識されていない
作用を理解・活用するための研究の中で、
自然言語処理の技術を援用した深層学習モデルなどが、
どのように多様な化合物構造を学習・認識しているか
について明らかにするため、Transformerモデルと
呼ばれる深層学習モデルの入出力それぞれの
部分構造を比較。
さらに、学習経過ごとのモデルを用いて、
それぞれの化合物を数値化し、
その毒性や物性を推定を実施。
それらの結果からわかったこととは?
また、この検討の最中に深層学習モデルの学習が
確率的に滞る現象があることを見出したそうですが
その原因とは?
詳しくはリンク記事でご確認うださい。
[PR]