「トロッコ問題」あるいは「トロリー問題」と呼ばれる、
哲学者フィリッパ・フットの提起した思考実験があります。
その内容は、「暴走した路面電車の行く先に5名の作業員がいる。
途中の分岐器を切り替えれば5人を救うことができるが、
その先には別の作業員1名がいる。5名を救うために
1名を犠牲にすることは許されるのか」というもの。
マサチューセッツ工科大学の研究チームが実施した、
オンライン実験プラットフォーム「Moral Machine」により、
233の国と地域から、合わせて4000万件のデータを
収集して分析した結果について、
ノースカロライナ大学チャペルヒル校の研究チームが
その実験方法について異論を唱えています。
どのような研究でも、批判的視点による研究内容や
研究方法の考察が重要です。
マサチューセッツ工科大学が実施した実験の
どのような部分に問題があると指摘しているのでしょうか?
詳しくはリンク記事でご確認ください。
人工知能の急速な発展により自動運転カーが現実味を帯びてくることで課題となるのが、「ある人を助けるために他人を犠牲にしてもよいのか」を問う「トロッコ問題」を自動運転カーにどう扱わせるかということ。この課題について、2018年にマサチューセッツ工科大学の研究チームが論文を発表していますが、「第3の選択肢が与えられなかったことで、結果がゆがめられている」と、別の研究者が指摘しています。
情報源: 「トロッコ問題」で強制的に選択肢を選ばせると「本当にどうしたいか」が見えてこないという指摘
[PR]