像道德机器游戏这样的实验必然是假设性的。可喜的是,没有人因为玩家的决策而死去。当设计者让你想象“如果……将会怎样”时,就像在玩一场游戏。但是,哪怕是思考想象中的情形,也与现实中的操作完全不同。
你应该做的与你将要做的并不一致。我猜这主要是因为,我们的行动与我们想象自己在特定情形下会做的事情并不总是一致。但是,情况也可能反过来。我在肮脏而危险的纽约长大,年轻时的我有一次在等地铁时,看到一个小偷偷走了旁边妇女的包。在本能的驱使下,我抢回了包,并将之归还主人。这是一种出于本能的行为,没有任何踌躇(我的女友就在一旁,这一事实可能影响到了我)。但是,大约十分钟后,我才意识到当时事态的严重性,并吓得脸色发白,双腿发软。多么冒险而愚蠢的行动!我并不想表现什么男子气概的英雄主义。老实说,我都怀疑,如果给我片刻时间考虑,我还会不会那样无私地冒险。凭本能行动的你和思虑再三的你,完全不像同一个人。
在假想的情形中,人们自己不会受到结果的影响。这一点可以从道德机器实验得出,而这看似矛盾却在情理之中。假设只有这样一个选项:要么杀死几个无辜的局外人,要么牺牲一名乘客。大多数玩家说,汽车应该牺牲那名乘客。但是,他们中没有一个人想成为那名乘客。
然而,这种常识性的反应与许多伟大的伦理学家的建议背道而驰。现代西方道德哲学的一条检验标准就是康德的“绝对命令”
。康德认为,因为人有自由意志,所以他们能够选择遵循何种法则。但是,是什么使得一条法则成为
道德的
,而不是(比如说)有效的呢?如果道德并非主观意见,或者获取想要之物的自私手段,那么,它就应该是普遍有效的。换言之,人们应该按照他们想适用于所有人的法则而生活。或者就像我妈妈说的一样,“如果每个人都把糖纸扔在人行道上,将会怎么样”?20世纪的哲学家罗尔斯(John Rawls)认为,情况反过来也是对的。你为别人制定的法则,同样适用于你自己。
因此,如果正确的做法是让那名乘客死去,那么,就应该这样做,哪怕这名乘客就是
你自己
。
如此看待事物,就是采用我所说的 第三人称视角 。它是任何人的视角,仿佛你没有直接卷入其中一样。实际上,这就是康德的建议。为了做出正确的道德选择,必须从客观的立场看待事物。哪怕我真的需要高分以进入医学院,从而有机会治疗穷人和受压迫者,在考试的时候作弊也是不对的。为什么?因为这对任何人来说,都是错误的。
但是,大多数时候,我们的生活都是以 第一人称视角 展开的。第一人称视角就是我们最直接地体验这个世界的方式。它通常也让我们与其他人正面相遇。在每一种已知的语言里,当我以第一人称说话(“我”或“我们”)时,我通常都是在面对另一个人发言,即第二人称的“你”。第二人称反过来也可以转换角色,对我说话。换句话说,第一人称体验与我和他人的关系密切相关。
在一天结束的时候,我是不是那场致命事故的受害者,或者我是否应该为活下来而感到内疚,这对我来说至关重要。我所认识的“你”,不仅仅是“他”/“她”或“他们”,是不是受害者,这也很重要。当涉及道德难题时,我做出正确选择的意愿(哪怕它会让我付出一些代价,比如时间、精力、欢乐、金钱,甚至名誉)则取决于我参与和关心的能力。
谁在做选择,谁在关心结果,这是否重要呢?道德机器游戏的设计者在设计无人驾驶的算法时,知道不能依赖自己的道德直觉。他们对种族主义问题很敏感,其中的风险是结果可能会偏向他们自己的世界观,而不是被普遍接受的。这就是为什么他们寻求大众的智慧。显然,数百万人玩一个游戏,会产生一些可靠的共识。但是,稍等一下,玩电脑游戏的会是什么人呢?结果证明,参与者几乎都是35岁以下、有大学学历的男性。这些人有时间、资源和玩游戏的意愿。这些玩游戏的年轻人真的是道德共识的最佳向导吗?我们应该要求本书中的人们,比如加拿大育空地区的猎人、泰国农民、日本售货员或英国骑手,都重塑各自的道德世界,以符合这一结果吗?或者,我们能否从猎人、农民、售货员和骑手身上学到什么?找到答案的唯一方式就是去了解他们。这也是人类学家从事深入、长期田野工作的原因。