如果一辆无人驾驶汽车正面临不可规避的交通事故,AI系统会选择撞向谁?诚然,技术已经为当今汽车的智能化贡献了许多,但高度自动化的未来,类似伦理问题是所有人必须面对的。这也是为什么麻省理工学院(MIT)的研究人员启动了这个全新的研究项目,旨在赋予机械“道德观”。
雷锋网消息,麻省理工学院已经上线一个名为“道德机器”的网站,网站的功能很简单,就是以问卷的形式面向大众收集情境选择的数据。例如,面对不可避免的事故,选择撞向人还是动物?选择罪犯还是普通人?这些数以万计的选择,将通过后台被MIT的研究团队采集,为未来机器智能平台(如自动驾驶汽车)面临的伦理问题提供参考。
是不是似曾相识?其实,这个问题和著名悖论之一“电车难题”一脉相承。“电车难题”于1967年由菲利帕·福特(Philippa Foot)提出,大概内容如下。
“一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以操作一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你如何选择?”
这时,你面临两个选择:
1.不作为,任由电车碾死被绑住的五个人。
2.扳动转换器,电车会碾死另外一个人,五个人会得救。
这是一个看似简单,但非常复杂的问题,就和未来无人驾驶汽车要面对的问题一样。MIT的做法是,使参与者身临其境地站在无人驾驶汽车AI的位置上,为一些突发状况做出决策。这些极端情况的发生概率极低,甚至一生之中都不会遇见,但至今没有人能给出一个明确的答案。
在MIT给出的模拟情境中,用户将面对一系列极端场景。究竟一个人的生命,与一只动物的生命孰轻孰重?一个老人和一个年轻人呢?一个男人和一个女人呢?抑或是,究竟应该径直撞死两个犯罪分子和两个无辜路人,还是冲下悬崖放弃驾驶员与三个无辜乘客的生命?
上面这些问题并没有“正确答案“,据雷锋网了解,此项调查的初衷,也是在于收集人类对于不同情景下的直观感觉,从而使AI的选择更符合人类的预期,或者说,让AI的残酷选择,达到绝大多数人可以接受的程度。
无人驾驶的伦理困局
毫无疑问,无人驾驶汽车将在未来大大降低交通事故概率,并拯救更多生命。但随着无人驾驶应用的普及,总有一天会陷入诸如上述的伦理困局,汽车的智能决策系统需要对一小部分人的意外负责,而在这之前,做这件事的一直都是人类自己。
MIT的实验一定程度上带来了思考,但也有评论指责其过分消费“伦理”,造成了逻辑漏洞。因为这项研究,是建立在对不同行人的长幼、身份、社会地位等标签的认知基础上的,严肃而不太恰当地说,如果研究数据将拯救性命的优先级排序为精英>普通职员>退休员工>一只狗,难道真的可以以此指导无人驾驶车的伦理决策吗?
有媒体认为,这种决策思路建立在了自动驾驶对人类有某种认知的前提下,但至少目前,自动驾驶技术并不会达到这种水平。例如,如果质疑一个人的生命价值高于其他人,那么前提是自动驾驶汽车能够辨别哪个人具有更高价值。
此前也有车厂提出比较鲜明的观点,据雷锋网(公众号:雷锋网)了解,去年10月,梅赛德斯-奔驰公司某高管在面对“电车难题”时对媒体表示,“奔驰自动驾驶汽车未来会致力于保护车内乘客的生命,必要时不惜一切代价。”
虽然戴姆勒随后出面否认了这一说法,但这却成为车厂无法逃避的问题:如果用户发现你的自动驾驶汽车程序,编写的是一段保护“横穿马路”行人的代码,他还会为你的产品买单吗?
《自然》杂志的最新研究报告也显示,即便有明确的规则出台,指导无人驾驶汽车在事故面前决策,也不会改变用户目前不信任的想法。如果“总会有人牺牲”,将这个选择权交由机器,不会得到多数人的支持,甚至可能导致人们拒绝购买自动驾驶汽车。当然,长期来看,非自动驾驶会导致更多的死亡,可人们宁肯将选择权交给自己。
我们能够做什么?
谷歌X实验室曾在公开采访中回应过这个问题,当时Waymo还没有作为单独的公司被剥离。X实验室自动驾驶项目的首席工程师Andrew Chatham(安德鲁·查塔姆)表示,“至少目前谷歌的所有路测活动中,还没有遇到一个场景让我们选择是拯救一个老人还是婴儿,但如果这一刻真的到来,那通常只是意味着几秒前你已经犯下一个更大的错误。”
所以,他们的目标,更多是通过优化汽车的刹车决策时间,最大限度阻止这种情境的发生。
MIT的方法对人类而言并非最优解,正如一位评论者所言,“如果这种排序是我们面对机器伦理问题最好的点子,只能说人类还没有准备好迎接由机器智能决策的未来。”
。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/108770.html