自動運転の課題(20)
そして、最後の課題と思われるものが、倫理課題である。自動運転にも倫理感が必要ではないかということである。
この課題は、トロッコ問題という倫理学の思考実験テーマで語られている。トロッコ問題とは、ブレーキが利かないトロッコがまっすぐ進めば5人、舵を切れば1人を轢く状況で舵を切るかどうかという問題である。
自動運転のAIには、人との衝突を避けることに全力を尽くすよう学習させるはずである。すると、トロッコ問題に遭遇したときのジレンマを解決するため、どちらを選択すべきか学習させなければならない。しかし、この学習では意図的にどちらかを轢くことになり、人を轢くことを教えてしまうことになる。どちらを選ぶかという価値観も人を轢くことを教えることも、どちらも倫理的な問題を含むため、この開発過程の考え方が社会に受け入れらるのだろうか。
倫理問題も学習させるべきか、あるいは、倫理問題が生じたらテイクオーバーでドライバに任せるか、今後決めていかなければならない。ただし、レベル5の自動運転ではドライバ不在のため、AI自身が倫理問題を取り扱わなければならない。
最近のコメント