恐怖的“理智”:智能汽车的危险抉择

行业资讯

假想一台自动汽车正遭遇一场车祸,即将碰撞两件物体。它可以急转向左,撞到沃尔沃运动型多用途车(SUV)上,也可以选择向右急转撞上一台小轿车。如果你为这台车编程,为了把对他人的伤害降到最低,在这种情况下,你会指示这台车怎样做呢?

就物理上的知识来说,你应该选择一个更重的车辆撞上去,这样撞击导致的冲击会被更好地吸收,这就意味着我们要把这台车撞到沃尔沃上去。除此之外,选择一个对乘客而言安全的车辆撞上去也是合情合理的,那么我们的结果还是要撞上沃尔沃。

但是,这种情况下,物理知识可不是唯一关键的因素。为汽车编程,让它和任何一种和其他物体相比较更“特殊"的另一种物体相撞,都很让人难以接受——因为听起来这像是一种类似军火的瞄准算法。而这可能会使自动汽车行业卷入法律和道德的漩涡。

即使不故意伤害别人,一些为自动汽车设计的优化碰撞的算法似乎也要求系统故意地歧视大型车辆,并撞向它们。这些目标车辆的司机或者车主就要承担无过错损失,即使他们买SUV的初衷是安全或能够带一大家子人出去玩。这听起来公平么?

这是否是一个现实问题?

一些道路事故是无可避免的,即使是自动汽车也不能逃脱这个命运。一只小鹿可能从面前蹦出来,超车道的司机也可能打个急转刮到你。你不能改变物理常规的话,碰撞就会接踵而至。不过,一辆自动或智能汽车,或许可以改善这个烂摊子。

人类司机只会本能地对突发事件做出反应,而智能汽车可由软件驱动,频繁地用目不转睛的感应器扫描它所处的环境,甚至在人觉察到危险之前就进行出了很多运算。在半秒的选择中,它已经完成了对碰撞的优化——换句话说,就是尽可能减小伤害。但软件需要编程,至于更复杂的情形,智能汽车的表现还不得而知。

在介绍这些极端情况时,我们没有尝试模拟真实世界的现实情况。这些情形就算现实,也可能十分罕见。在以上情形中,我们可以发现防碰撞算法可能会矫枉过正。我们在牺牲一个东西来挽救另一个时这种担忧也是非常常见的。

过往数年,智能汽车大多被圈定在高速公路或普通公路的环境上行驶。这种环境相对简单,司机不必过多关注行人和无数城市行驶中的小插曲。当驾驶环境变得更多样和危险时,智能汽车的选择也会更加艰难,可能导致它奔向东西,甚至人。

道德重于伤害

下一种情景被赤裸裸地高度关注。这是一个由一名在弗吉尼亚交通创新和研究中心的研究科学家Noah Goodall做出的研究。我们再次假设,一台自动汽车即将遭遇一场车祸。它可以选择撞向戴头盔的摩托车手,也可以选择没戴的。那么,如何编写程序才是正确的呢?

以碰撞优化这个思想看,你应该命令程序将车撞到那个很可能被撞了也能活下来的人身上去。上一个情景中,我们要把车撞到沃尔沃SUV上。这个情景里,我们就要冲到戴头盔那个人身上去。好的算法会通过更高级的统计数据指出不戴头盔的人会死,而这正是开车的人拼命想要避免的。

但是我们很快就发现这个选择的偏颇,尽管在碰撞优化的角度看这样做是有道理的。若故意撞到那个戴头盔的摩托车手,那么我们就事实上惩罚他戴头盔的行为。可是戴头盔的摩托车手却比不戴头盔的摩托车手责任小得多。同时,我们给了另一个摩托车手一枚免死金牌。在美国大多数州,这个摩托车手不戴头盔的行为却显然是非法的。

这种歧视不仅是不道德的,它还是一种很差的策略。这种碰撞优化设计可能鼓励摩托车手不戴头盔,特别是这类汽车更普遍上路行驶后,以此在自动汽车前独善其身。类似的,在之前的情形中,如果消费者知道沃尔沃或奔驰车的安全会受到威胁,并且不想被自动汽车选作目标,那么这些牌子的车的销量也可能受到波及。

运气和道德的博弈

那么,身陷囹圄的我们就不要有意地做出选择。这办法看起来很棒。我们在设计上要求自动汽车通过随机数产生器来做出决定。换句话说,如果选择撞到SUV还是小轿车,抑或是戴头盔和不戴头盔的摩托车手这些问题总是和道德纠缠不清,那我们干嘛还要费劲做出一个预先计算好的选择呢?

智能汽车的程序可以产生一个随机数;如果是奇数,就撞到一边;如果是偶数,就撞到另一边。这样对SUV或有责任心的摩托车手还是别的什么的都不存在歧视啦。

这种随机性在我们的世界也不是新鲜事:运气总是在我们身边,不管好运还是霉运。只要在半秒的紧急情况下,随机的决定在人类驾驶时总是好的。反应是不可预知的,因此是不能以合理与否判断的——半秒通常不足以人类基于合理性做出判断。

然而,单靠随机数引擎是不够的,有一堆原因可以解释。首先,这方法显然没有模仿人类驾驶的优点。自动汽车核心的第一位就是它可以做出比我们更佳的决断。人为差错、驾驶分心、酒后驾驶和类似原因占了当下交通事故的90%以上。在美国的道路上,每年有32000人以上死亡。

第二,别人可能原谅人类司机在半秒之内做出的糟糕反应——比如撞到必然会爆炸的平托(Pinto)车上,而不是撞到更稳定的物体上。智能汽车可不会有这种自由去犯这种错误。程序员没日没夜地钻研都在确定这种事情下做出正确的选择。这就是蓄意杀人和过失杀人的区别。

第三,在可预见的未来,这种进退两难的困境中,更重要的并不是寻求“正确"的答案,更多的是要对你的决定负责,并为其辩护——展示你的“道德公式"的时间。道德上,思考问题的过程和结果同样重要。智能汽车,做出随机的决定,随后逃避责任。它们不会深思熟虑,它们是没有思想的。如此,这要比灵活的人类决定更不好——尽管人类的决定可能导致的后果也不好。

你知道的太多了

一个不那么泾渭分明的解决方案是将一些信息隐藏起来,这些信息可能会导致不适当的歧视(是为“无知之幕"。译者注:一个社会哲学概念)。对号入座以上的情形,意味着我们要把其他汽车的厂家或材质隐藏起来,或将头盔和其他安全装备的存在隐藏起来。(尽管科技可以通过车—车通讯告诉我们这些信息)如果我们这样做,偏颇的基础将不复存在。

不使用碰撞优化计算的信息还不够。要做到道德清白,自动汽车根本不要采集以上信息。拥有了以上信息,可能会减少伤害或挽救生命,但法律义务也可能阻止这些信息的利用。试想情报机构有恐怖分子的确凿信息,但却未能阻止攻击,公众会掀起怎样的暴乱。

不过,这个办法的问题是,汽车制造商和保险公司都想在技术层面上尽可能地多收集数据。看看现在形形色色的新式车内广告吧!所以利益相关方愿不愿意自觉在关键数据上给自己蒙上眼睛,还不明了。毕竟技术允许下的大量数据收集实在是诱惑难当。

那怎么办?

未来的自动汽车,孤立的避撞功能是不够的。一些情况下事故在物理定律的定义下是不可避免的。原因成千上万:可能是没时间踩刹车,技术故障,传感器错位,天气太差,也可能单纯是喝凉水都塞牙。因此,智能汽车需要包括碰撞优化策略。

程序员需要设计损失函数来优化撞车。这种算法计算各种可能条件下的预期损失——可能也潜在地估计谁能活下来,谁将要死去。话说回来,这根本上就是一个道德难题,一个极需谨慎和合理性透明的道德难题。

罕见的情景还有很多,但这无所谓。通常,罕见情形都是要上电视,成为让人屏住呼吸的头条新闻的。在美国,交通事故的致死率为每一百万英里里程/人。这意味着,你活100辈子可能也不会遇到一次致命车祸。尽管如此,我们设计自动汽车的目的也是要竭力降低这个指标。

同样,列举以上情形的意图并不是要模拟真实世界的现实情况。但这些是思考实验——类似科学实验的一种东西——为了简化问题,以便隔离和研究相关变量。在这些情形下,变量是在莫测的碰撞优化策略中,道德所扮演的角色,具体来说就是歧视和公正。

不过,更严峻的挑战并不是在道德困境中寻觅正确答案。它也要在车主和公众看到自动汽车的缺点时能找到一个准确的心理预期。道德困境的答案不论如何,都不会取悦所有人。

自动汽车生产商和一级供应商即将面临普遍的道德和期望的挑战。应对这些挑战的第一步,就是要发起一个开放的讨论,谈谈道德和自动汽车的关系,提升公众和行业关于这个问题的意识,当运气很差或天命降临时不至于狂怒不已,也免得双方闹上法庭。



转载请注明文章出处:APP开发
上一篇:PayLane为提高竞争力发布安卓本土app
下一篇:小米联合创始人KK:千万要有产品,千万不要有借口