東大教授が挑むAIに「善悪の判断」を教える方法 「人を殺してはいけない」は‘いつも正しい’か?
「人を殺してはいけない」は‘いつも正しい’か? 韓非子、アリストテレスから、アドラー、サンデルまで。
ロボットに「道徳」を搭載すべく、古今東西の思想を大胆に横断する!私たちを待ち受けるロボット社会は「平和的共存」か、それとも――。
東京大学で工学部・医学部教授を兼務する気鋭のAI研究者が、人間と共存するうえで不可欠な「人間のモラル」をロボットに搭載すべく、その構造を工学的に解き明かす!◎著者からのメッセージ私は東京大学で、AIに「善悪の判断」を教える研究をしています。
そのためには、まず「人間の道徳がどのような構造で成り立っているか」を明らかにする必要があります。
医工学の考え方を道具にすれば、こうした「抽象的概念のモデル化」が可能です。
本書では、古代から近現代思想まで、古今東西の道徳思想がどのような構造で成り立っているかをフラットに分析・分類し、道徳システムの共通の原理を抽出していきます。
そのうえで、ロボットに搭載できる「道徳エンジン」をつくることが目標です。
さあ、さっそく講義をはじめましょう!◎全6回の「オープンキャンパス形式」でスラスラ読める!○第1回講義 「人を殺してはいけない」という道徳は普遍的だろうか? ○第2回講義 これまでの道徳思想を分類してみよう○第3回講義 そもそも「人を殺してはいけない」の「人」って誰だろう? ○第4回講義 道徳をモデル化してみよう○第5回講義 道徳の階層を分類してみよう○第6回講義 道徳エンジンをロボットに搭載してみよう≪各講義にオリジナルの「演習問題」、巻末に「演習問題のヒント」つき≫
更新中です。しばらくお待ちください。