如果有这样一道问题摆在你的眼前:当你已经无法刹车控制车速,要么撞上有三名乘客的另一辆车,要么紧急转弯撞击路旁行走的三名儿童,假设你有充足的时间思考你会如何选择?诚然这是非常难以回答的问题,人类尚且如此那么当这辆汽车的驾驶权交给机器人,机器人又会做出什么样的选择?对此 Google 的工程总监 Ray Kurzweil 在上周也给出了自己的答案,总结来说就是:“我们都不知道。”
在奇点大学的演讲中,Kurzweil 解释为何说“汝不能杀戮”的机器人戒条是非常错误的。如果某个人想要炸毁一座建筑或者一座城市,那么从道德上我们自然有权利去阻止他。那么再回归到自动驾驶汽车上,机器人同样需要一个“道德编程”,他表示 Isaac Asimov 的机器人三大戒律是很好的“第一关”。
当你面临某些抉择的时候,如果两种结果都会导致一些人死亡你会怎么做?对此他也承认当无人驾驶面临这样的抉择的时候还没有准备好答案。他表示:“我会继续进行深入研究,我的分析工作还未结束。”