大约在2017年的某个时候,在我所生活的安阿伯市,我开始注意到街道上出现了一些特殊的交通工具。就像科幻电影中的僵尸一样,无人驾驶汽车悄然混杂于有人驾驶的汽车中间。当只有一两辆无人驾驶汽车时,你还能把它们看作新奇的小玩意儿。但当它们的数量逐渐增加时,你就可能感到一丝不安。我可以相信这些东西在我横穿马路时能停下来吗?我真的愿意与一辆无人驾驶汽车共享道路吗?毫无疑问,它们都是一流的机器。但是,是否应该让一台没有良知的机器来决定:是停下来等候误入车道的行人,还是急转弯冲向电线杆以避免伤人?
在接下来的几年里,仿佛是为了印证这些担忧一样,媒体报道了第一批无人驾驶汽车所导致的死亡事故。当然,这是意料之中的。有时候,物会杀人。1830年,在世界上第一条公共铁路的落成典礼上就发生了这样一件古怪的事。从利物浦出发的路上,一列火车从一名重要的政客身上碾过。在锅炉补充燃料的间隔期,该名乘客站到了正在启动的发动机前面,结果酿成意外。这一事故很容易激起民众对铁路的反感,阻止其发展。对此,举办方没有被吓倒,而是坚持让火车继续行进。他们决心向沿途的观众证明,火车本身没有任何问题。他们的坚持获得了成功,火车很快赢得了公众的支持。
但是,这家铁路公司不得不规避一条自中世纪以来就存在的英国法律。正如历史学家威廉·皮茨(William Pietz)所解释的,任何造成人类死亡的物品都会被视为诅咒之物,在法律上被称为“赎罪品”而必须移交上帝,要被罚没并交给上帝在人间的代表,即国王或女王。
陪审团不得不裁决,这场事故究竟是他杀,还是意外?如果是意外,那么
火车的发动机
是否有罪?最后,尽管陪审团裁定这是一场意外,但是他们拒绝认定发动机有罪。“赎罪品”相关规定自此走向消亡,直到1846年被废除。从此,单纯的机器不再成为责任主体。一条微妙的道德界限发生了变化。然而,人与非人之间的责任界限所提出的潜在问题仍然存在。当非人的物杀死人类时,必须存在某种方式来裁决其中的道德意义,以及随之而来的后果。此外,正如我们将看到的,人与非人的界限可能正是道德困境的一个不稳定或有争议的来源。
无人驾驶汽车有一些不同之处。不同于火车,它们不在笔直的轨道上行驶。它们被设定了做出选择的程序。决断的能力不正是道德主体的核心特征吗?如果一辆车撞了行人,而它 本可以避免 这一事故,那么,这辆车不应当担负责任吗?或者,责任属于设计师?又或者,不应该由任何人承担责任?
大多数车祸都是人为过失造成的。司机可能在发短信,或操作不当,或醉酒,或嗑药,甚至更糟。但是,引导无人驾驶的计算机和传感器没有这些弱点,而且它们变得越来越精细。即使现在,我也不介意乘坐一架大多数时候都是由无人驾驶系统操作的飞机穿过大西洋。所以,为什么要对无人驾驶汽车这样慎重呢?
我认为原因之一是,无人驾驶汽车和有人驾驶汽车太像了。我们之所以对其他司机抱有期望,是因为他们也是人,有目的、能判断、有良知。我们可以和人打交道。但是,我们可以和机器建立社会关系吗?我们能把机器当成人,来判断它的对错吗?这在很大程度上取决于究竟什么是人。我们在什么时候进行谴责和赞美,取决于人与非人的界限在哪里。
无论司机是人还是电脑,车祸都会发生。参与设计无人驾驶算法的心理学家让-弗朗索瓦·博纳丰(Jean-François Bonnefon)以冰冷的理性问道:“如果不可避免地会有一些道路使用者死亡,那么,死的应该是哪些人?”
无人驾驶并不能完全消除致命的事故,但是,它们能够在糟糕的选项之间迅速地做出决策。当某人或某物决定让谁死时,
这就不再是一个技术问题,而是一个道德问题
。
考虑到汽车面临的选择,什么才是它们该做的呢?我们生活在一个大数据的时代,所以,博纳丰的团队选择求助于大众的智慧。2016年,他们发行了一款名为“道德机器”的网络游戏。游戏会向玩家提供各种无人驾驶的场景,其中死亡事故不可避免,但是玩家可以选择让谁被撞,让谁脱险。此外,他们也可以选择突然转向,或者继续直行。这款游戏迅速走红。到2020年,已经有数百万人参与。
结果并不让人意外。由于各种强制选项,玩家更倾向于保护人类,而不是非人类;倾向于造成更少的受害者,而不是更多。他们会按照这个顺序考虑:婴儿、小女孩、小男孩和孕妇。他们也稍稍偏向于守法者而不是违法者,社会地位高的人而不是底层人,健康的人而不是不健康的人,行人而不是乘客。
如果能够选择的话,他们宁愿不行动,让车子沿着当前方向继续行驶,而不是突然转向。
让我们停下来思考一下最后这一条。如果无论你做什么,都会有人死亡,那么,让车子沿着原路继续行驶似乎就是在说:“我不想承担选择受害者的责任,所以,就让事情顺其自然地发生吧。实际上, 我选择不卷入其中 。”这是一个经典的道德区分:主动杀死某人与被动地 让其死亡 。最后的结果可能是一样的,但是, 你自己 在这一系列事件中 所扮演的角色 是不同的。正如我们将看到的,无为似乎对很多人来说都是更有吸引力的选择。
当然,对个人来说,这是一种避免对道德上令人不安的结果负责的方式。但是,它是以一种非常独特的方式实现的。不同于将责任转嫁给他人,它实际上试图将人的行动从这一图景中完全抹除。通过让事件自行发生,我仿佛已经将它们完全驱除出道德考量的范围。一旦火车不再是罪魁祸首,无人驾驶汽车也只是遵循算法,那么无论发生什么,哪怕是悲剧性的,都似乎只是一个道德中立的因果事件。当英国法律取消赎罪品时,某些类型的死亡就从可追责的(如果不是某人,那也是某物)转变为坏运气作祟。悲剧似乎已经跨越了人为决策与非人类事故,或者说,有目的的行动与任意的偶然因素之间不可见的界限。然而,我们不能简单地说交通工具不是人类道德生活的参与者。想想一些人是怎样把他们的跑车或甲壳虫型汽车与自身身份密切联系在一起的。即使对一些不带情感的司机来说,在某种意义上,汽车也是司机,乃至乘客的一个延伸。在二者之间真的有清晰的界限吗?
是否所有人都一致认为,交通工具就是一堆机器?2015年,我拜访了我的学生查尔斯·扎克曼。那时,他正在老挝进行关于赌徒的田野调查。一天,我们在一座佛寺停下来。这时,一家卡车公司的老板也来到这里。估计他的卡车发生了很多次事故,所以,他让和尚们举办一场祈福仪式。和尚们坐在寺庙台阶上,而他把一辆卡车停在对面。这场仪式就像是在为不幸的人进行祈祷。显然,这是一场严肃的仪式,而不仅仅是习俗。当和尚念诵经文时,祝福就顺着一根连着他们的双手与卡车方向盘的绳子流淌,还传导给一桶水。这桶水将会被洒到卡车上,然后被带回公司驻地,给其他卡车带去祝福。毫无疑问,该仪式产生的能量是流向卡车,而非个人。这个商人是在转移坏的运气,将汽车看作道德主体,让物与宇宙统一起来,还是在寻找什么别的东西呢?这些仪式实践不一定是需要解释才能生效的,而且很可能,他也无法告诉你。但是,我敢说,和尚与商人并没有像道德机器实验的设计者或参与者那样,在拥有道德的人类与道德上中立的机器之间划清界限。
我们将在接下来的章节中探讨类似主题。我们会看到,事物在道德上对我们有多大意义,很大程度上取决于我们认为哪些东西能够像人类一样,让我们与之建立社会关系。沿着这一思路,我们将发现: 什么是人 ?界限在哪? 处于界限另一边的 又是什么?所有这些问题的答案都不是稳定的、明晰的或得到普遍承认的。这些差异反映了不同的历史和生活方式。同时,如果我们认真倾听,有时候会听到那些差异同频。