当人工智能遇上伦理无人驾驶汽车如何面对死

2019-11-05 17:21 数码

当人工智能遇上“伦理”,无人驾驶汽车如何面对死亡?

如果一辆无人驾驶汽车正面临不可规避的交通事故,AI系统会选择撞向谁?诚然

当人工智能遇上伦理无人驾驶汽车如何面对死

,技术已经为当今汽车的智能化贡献了许多,但高度自动化的未来,类似伦理问题是所有人必须面对的。这也是为什么麻省理工学院(MIT)的研究人员启动了这个全新的研究项目,旨在赋予机械“道德观”。

(公众号:)消息,麻省理工学院已经上线一个名为“道德机器”的站,站的功能很简单,就是以问卷的形式面向大众收集情境选择的数据。例如,面对不可避免的事故,选择撞向人还是动物?选择罪犯还是普通人?这些数以万计的选择,将通过后台被MIT的研究团队采集,为未来机器智能平台(如自动驾驶汽车)面临的伦理问题提供参考。

是不是似曾相识?其实,这个问题和著名悖论之一“电车难题”一脉相承。“电车难题”于1967年由菲利帕·福特(Philippa Foot)提出,大概内容如下。

“一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以操作一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你如何选择?”

这时,你面临两个选择:

1.不作为,任由电车碾死被绑住的五个人。

2.扳动转换器,电车会碾死另外一个人,五个人会得救。

这是一个看似简单,但非常复杂的问题,就和未来无人驾驶汽车要面对的问题一样。MIT的做法是,使参与者身临其境地站在无人驾驶汽车AI的位置上,为一些突发状况做出决策。这些极端情况的发生概率极低,甚至一生之中都不会遇见,但至今没有人能给出一个明确的答案。

在MIT给出的模拟情境中,用户将面对一系列极端场景。究竟一个人的生命,与一只动物的生命孰轻孰重?一个老人和一个年轻人呢?一个男人和一个女人呢?抑或是,究竟应该径直撞死两个犯罪分子和两个无辜路人,还是冲下悬崖放弃驾驶员与三个无辜乘客的生命?

上面这些问题并没有“正确答案“,据了解,此项调查的初衷,也是在于收集人类对于不同情景下的直观感觉,从而使AI的选择更符合人类的预期,或者说,让AI的残酷选择,达到绝大多数人可以接受的程度。

无人驾驶的伦理困局

毫无疑问,无人驾驶汽车将在未来大大降低交通事故概率,并拯救更多生命。但随着无人驾驶应用的普及,总有一天会陷入诸如上述的伦理困局,汽车的智能决策系统需要对一小部分人的意外负责,而在这之前,做这件事的一直都是人类自己。

MIT的实验一定程度上带来了思考,但也有评论指责其过分消费“伦理”,造成了逻辑漏洞。因为这项研究,是建立在对不同行人的长幼、身份、社会地位等标签的认知基础上的,严肃而不太恰当地说,如果研究数据将拯救性命的优先级排序为精英普通职员退休员工一只狗,难道真的可以以此指导无人驾驶车的伦理决策吗?

有媒体认为,这种决策思路建立在了自动驾驶对人类有某种认知的前提下,但至少目前,自动驾驶技术并不会达到这种水平。例如,如果质疑一个人的生命价值高于其他人,那么前提是自动驾驶汽车能够辨别哪个人具有更高价值。

此前也有车厂提出比较鲜明的观点,据了解,去年10月,梅赛德斯-奔驰公司某高管在面对“电车难题”时对媒体表示,“奔驰自动驾驶汽车未来会致力于保护车内乘客的生命,必要时不惜一切代价。”

虽然戴姆勒随后出面否认了这一说法,但这却成为车厂无法逃避的问题:如果用户发现你的自动驾驶汽车程序,编写的是一段保护“横穿马路”行人的代码,他还会为你的产品买单吗?

《自然》杂志的最新研究报告也显示,即便有明确的规则出台,指导无人驾驶汽车在事故面前决策,也不会改变用户目前不信任的想法。如果“总会有人牺牲”,将这个选择权交由机器,不会得到多数人的支持,甚至可能导致人们拒绝购买自动驾驶汽车。当然,长期来看,非自动驾驶会导致更多的死亡,可人们宁肯将选择权交给自己。

我们能够做什么?

谷歌X实验室曾在公开采访中回应过这个问题,当时Waymo还没有作为单独的公司被剥离。X实验室自动驾驶项目的首席工程师Andrew Chatham(安德鲁·查塔姆)表示,“至少目前谷歌的所有路测活动中,还没有遇到一个场景让我们选择是拯救一个老人还是婴儿,但如果这一刻真的到来,那通常只是意味着几秒前你已经犯下一个更大的错误。”

所以,他们的目标,更多是通过优化汽车的刹车决策时间,最大限度阻止这种情境的发生。

MIT的方法对人类而言并非最优解,正如一位评论者所言,“如果这种排序是我们面对机器伦理问题最好的点子,只能说人类还没有准备好迎接由机器智能决策的未来。”

原创文章,未经授权禁止转载。详情见转载须知。