进入高科技时代以来,人类文明的基本矛盾可以概括为不断快速增长的控物能力与自控能力的日益不相称。这一方面是因为人类对物质和身体的各种欲望近代以来一直在得到不断强化;另一方面则是人类精神的注意力转向了物质,本来可以驯化和节制欲望的各种制度和精神文化因素在不断弱化。
我们生活在一个高科技的时代。这一“高科技时代”是应纳入“工业文明”的大范畴之内,还是将成为一个与之有别的特殊时代,比如名之为“信息时代”“智能时代”“数据算法时代”等等,也许还需要再有一些时间才能看得明朗。但明显的是,科技的发展速度在最近数十年里又一次陡然加快,甚至比人类的工业化早期对农业文明的第一次大加速更快。
人类文明从一万余年前开始,用了约5 000年时间,才筑就了日后政治文明与精神文明成形的物质基础,如在2019年7月成为世界遗产的良渚遗址中所见的稻作文明。但从近代工业革命以来,只用了不到300年时间,世界的生产和财富总量就增长了数十倍。而在近数十年,甚至可以说冲上了物质文明的一个顶峰。弗朗西斯·培根(Francis Bacon)400年前还在感叹此前2 000多年的人类主要在人文精神事务方面专心用力,而在探究物质的自然科学技术方面进展缓慢。在人类的主要精力转向控物之后的400年间取得如此巨大的成绩,培根如果看到大概也要感到吃惊。
文明的阶段常以不同生产工具的使用为标志。说一点个人的经验吧,近50年前,我在南方一所中学的农场里度过了一个农作年,从育秧、插秧、耘禾、双抢(抢收抢种),到又一轮循环,直到晚稻也入仓,我们所用的主要工具就是手足和犁耙,还有几头水牛和少量的农业器械:抽水机、打谷机等。这并不只是我们农场的特殊现象,也是当时农村相当普遍的情形。
作为一个学者,今天我使用的书写工具早已从纸笔换为电脑键盘;获取资料和发表作品可以通过互联网;讲课可以使用多媒体,并通过音频和视频令更多人获知;到国内外访学有便捷的高铁、飞机等交通工具;一部小小的手机就可储存自己和他人的大量书籍文字,互联网上海量的资料也可以随时调用,此外它还兼备电话、相机、电影院、音乐厅、博物馆等若干功能。
使用这些工具显然不是学者才有的特殊待遇,今天受过一定教育的人都可以掌握。但目前的这一情景,是50年前一个在烈日下水田里劳作的孩子怎么也想象不出来的。就在这短短的50年里,一个普通中国人会感觉自己似乎跨越了人类过去数百年,在某些方面甚至是上千年的技术发展。
这里不想历数人类的科技发展成果及其所带来的经济成就,我现在关心的是现代伦理在这一巨变时代的应用,以及自身的调整和应变。与这个时代急速变化的科技经济和社会政治相比,伦理学的核心可能是最不易改变、最为守恒的,但它也不可能“以不变应万变”,它的形态、调节重心、内容和方式都需要发生一些重要的调整和变化。
在谈现代伦理对高科技时代的应变之前,我要先谈谈伦理学已经处在一种怎样的状况。
就像现代社会相对传统社会已经产生了一次质变一样,现代伦理相对传统伦理来说,也已经历了一次“应变”。科学技术革命和人类社会走向平等这两大潮流汹涌澎湃、互相促进。平等的潮流要求社会平等地对待人们追求的各种生活理想和价值目标,或者说要求价值平等多元。这样,现代伦理就不可能再像传统伦理那样以某一种人生的价值目标或生活理想为中心了。因为现在各种生活理想、方式、趣味常被认为是价值相等的,若强行以其中的一种——哪怕是其中一种相当高尚的生活理想作为社会的主导,都将损害到平等的自主。
现代伦理不再以某一种价值(即“好”)来引领人的德性与规范,而是在“好”(good)与“正当”(right)之间做出划分,它的思考重心也不再是人的全部生活,而只是这生活中与社会和他人密切相关、影响重要的那一部分行为。它主要考虑这些行为正当与否,以及这种正当性的根据何在,如何遵循和制定相应的行为规则等等。
立足于这种“正当”与“好”的划分,现代伦理学出现了两个主要流派:
一个是“道义论”(deontology),主张不再以生活的价值目标的良好与否为标准,而是以行为或行为规则的本身性质正当与否为标准来凝集共识和建设社会伦理。它认为伦理固然要考虑到“好”,但“正当”本身具有一种独立性。这也是从康德到罗尔斯的观点。
另一个是“目的论”(teleology),近年也常被称为“结果论”(consequentialism),但如果从结果尚未呈现,而行动或行动的决策已经必须开始,即从行为选择而非事后评价的角度来看,叫“目的论”可能更为贴切——因为这时候“结果”只是作为行动者的一种“目的”在其心中呈现,能否达到目的还不得而知。目的论者认为要以目的或者说结果来决定行为的正当与否以及如何行动。其最典型的理论是以“最大多数人的最大幸福”为目标的功利主义。
至于依然坚持以“好”与“正当”的紧密联系乃至合二为一,且以“好”为统领的观点则大致还有两种态度:一个是复古或部分复古的,如一些社群或共同体主义者的主张;另一个是不断进步乃至激进的,如目前身份政治的一些拥护者。还有一种思想倾向则是在伦理学中始终存在,但近代以来特别流行的,那就是道德相对主义的态度:否认任何道德规则具有一种绝对性乃至普遍性。
而无论对规则的性质、内容及其根据有何争论,现代伦理还是以规则为中心的。现代伦理的内容主要呈现为一种规范伦理或规则伦理。近年网络上流行的、假托胡适的一句话——“规则比道德更重要”也反映了这种趋势。这句话的大意是,如果人人讲规则而不是谈道德和高尚,道德会自然回归,成为一个有人情味的正常国家,反之则可能变成一个伪君子国。它的立意有相当的理由,但在语词上却有来自传统观念的误用,即将“规则”理解为似乎与道德无关的法律或礼仪规则,而将“道德”理解为一种价值要求上的高尚无私。说“规则即道德”会把一些与道德无关的规则误纳入道德范畴,但就现代伦理的主要内容而言,“道德即规则”大致可以成立。
我们现在就来讨论面对高科技的发展应该考虑的一些道德规则及更一般的原则。今天面对人工智能和基因工程等领域的迅猛发展,一些国家,乃至一些大公司都出台了一些一般的伦理规则,这些规则看起来都不错,但多是美丽的大词,细究起来内容也相差不多。这些概括性的原则语汇自然是有必要的,但可能还需要深入具体,对一些专门智能机器的功能和使用制定比较具体的适用规则,包括明确一些准入或禁入门槛。这样也能从具体规则出发来更好地概括出一般规则,帮助我们区分它们的轻重缓急乃至排列次序。
在对人工智能的各种公示的伦理规则中,我认为比起诸如公平、隐私、透明、共享、反歧视等伦理规则,“安全可靠”是第一位的,因为它直接涉及保存生命。现在我想以“无人驾驶汽车”为例,通过假设一个基本场景的各种变化条件来讨论可能的权衡,以及这些权衡背后的选择原则。高科技带来了一些重要的新情况,我们可能会将一些过去属于人类主体的功能,包括复杂的含有控制和指挥的功能,交给像无人驾驶汽车这样的机器,所以也需要考虑如何在新的情况下制定规则和思考原则。
假设这样一个场景:一辆载有一位乘客的无人驾驶汽车奔驰在一条单线车道上,左边是用铁杆连着的水泥隔离墩,右边是一条自行车道。突然,有一只小狗跑到道路中间,无法以刹车来避免撞到它,这时应该怎么办呢?如果右边的自行车道无人,是不是应该让车拐到右边以避免轧死它?如果是,那么这里依据的原则是生命至上,要尽量保存所有的生命。
但如果右边的自行车道上有一个人正在骑车,能不能往右或往左转向呢?假定往右拐就会撞死骑车人,往左拐则会造成车毁人亡,大概许多人会说不,只能照直行进,这里依据的原则是人类的生命优先于动物的生命。
那么,如果以上假设的基本场景和条件不变,现在变换的一个条件是:突然出现在道路中间的不是一只动物,而是一个人,还要不要转向?同样是在保存生命的原则之下,我们却要遇到种种具体权衡的困境。
如果我们从后果出发考虑,还会有一个车内、道中、骑行三方人数不同的问题。如果三方人数相等,就不用考虑数量这个因素了。但实际的情形大多不是这样,而是千变万化的。为了缩小范围和让问题尖锐鲜明,我这里只考虑1和5两个数字来假定下面三种情况:
一种情况是道中5人、车内1人、骑行1人,无论左拐还是右拐,能活6人而死1人,直行则活2死5;第二种情况是车内5人、道中1人、骑行1人,直行或右拐,能活6死1,左拐则活2死5;第三种情况是骑行5人,道中1人、车内1人,直行或左拐是活6死1,右拐则活2死5。
现在应如何抉择? 是不是只考虑结果?还是需要考虑一些其他原则?除了考虑保存生命的原则以及“受害人数量的后果”的从属性原则,我想至少还有两个从属性原则是需要考虑的:一个是“客体的事件相关程度”,一个是“主体行为的主动程度”。
从客体的事件相关度来说,突然出现在路中间的动物或人相关度最大,如果是人,他/她还有了一种事先违规的可能;相关度其次的可能是汽车内的人,毕竟是他们在使用这一车辆;最后是骑车人,如果他们发生了车祸,就有点像是“飞来横祸”。而从主体行为的主动性来说,按照原来路线照直走自然是主动性最少的,右拐和左拐的主动性大概均等,但会有更重视车内人还是车外人的差别。
这些原则也需要纳入我们的选择考虑。哈佛大学政府系讲座教授桑德尔(Michael J.Sandel)在有关“正义:如何抉择”的公开课视频中举过一系列虚拟案例:第一个是“一个轨道列车司机,转动手柄,让飞奔的列车从原来有5个工人在工作的轨道转到只有1个工人的轨道”;第二个是“一个人推下一个站在桥上的、能够挡住轨道车行驶的胖子,以救下前方轨道上的5人”;第三个是“一个医生杀死1个候诊的人,移植他的五个健康器官来救活其他5个绝症患者”。这三个虚拟例证都是活5死1的结果,但如果说在第一个案例中还是有不少人赞成或不反对司机救5死1的转轨行为,那么越往后的案例中的行为遭到的反对就越多,最后一种则几乎被看作谋杀。在我看来,这种态度的变化恰恰反映了我上面所说的另外两个原则被纳入考虑时所起的作用:因为越到后面,客体(受害者)的事件相关度就越小,而主体行为的主动性就越大。
在上述无人驾驶汽车的例证中,也需要将这两个原则纳入其中考虑而不是只看结果。但是,对这一场景下的一些极端情形我们仍无法给出完全明确的统一答案,或者说无法,甚至也不宜制定太具体的规则。我设计这一案例并不是要给无人驾驶汽车定出明确的选择规则,而是想在此引出各种选择后面必须考虑的一些原则、因素及其权重。当然,考虑到这是一些极端的情形,对各种选择的问责事实上也不会那么严苛。
一些虚拟例证在现实生活中很少发生,但并不意味着不会发生,尤其是一些程度稍低的类似情况。设计它们是要鲜明地呈现规则要处理的困境以及规则与更一般的原则的关系。也就是说,这些设计的主旨并不是要直接引出在这些条件下的无人驾驶汽车的具体规则,而是要提出问题、刺激思考、反省和澄清我们处理这些问题的一般原则及其关系。
具体规则往往都联系着一些更一般的道德原则,其首要原则是保存生命、生命至上。我想这是一个具有普遍性的原则,否则这后面的思考和讨论就没有意义,因为它们都是置于“保存生命”这一基本原则之下。“保存生命”这一原则也会延伸到尽可能地保护动物生命,但一般人还是会把人类的生命看得优先于动物生命。有人可能会据此提出,如果人类自我的生命优先于其他生命,个体自我的生命是否也可以优先或至少稍稍优先于其他个体的生命呢?这是另外一个值得探讨的复杂问题,也可以说是一个从属原则的问题。其他从属性原则还要考虑行为的主动性程度、对象的介入程度、挽救生命的概率、面临危险的程度、能够保存的生命数量等等。我们需要在这些从属性原则之间寻求一种平衡之道。
如何在汽车驾驶中减少车祸、保障人的生命安全一直是社会普遍关注的问题。世界上每年在车祸中丧生的人数远超过恐怖主义袭击致死的人数。相比于迄今为止的人类驾驶,无人驾驶汽车的新特点是:这是一个和人类驾驶员不同的新的驾驶主体或者说代理人(agent),它和过去的一些不同程度的、辅助性的汽车自动驾驶装置也不一样(所以这里不说“自动驾驶汽车”以免混淆)。那么在这种新情况下,承担主要责任的应该是谁?其实,无人驾驶汽车获取信息、迅速计算和动作反应的能力一般来说是超过人类驾驶员的。人会受到自身理性反应能力以及人特有的情绪,乃至冲动、赌气、酗酒等非理性因素,甚至恶意杀人等因素的影响,在这种情况下,无人驾驶汽车不是可以增加对生命安全的保障吗?的确,无人驾驶汽车可以比人类驾驶汽车有更多的遇到突发情况之后的操作选择。事实上,一般预计也显示无人驾驶汽车发生事故的概率会比人类驾驶汽车发生事故的概率小。但为什么我们还是要对此严加限制?这是因为驾驶中的主动权不再掌握在人手里,不再掌握在“我”手里(一个技术不如车内其他乘客的驾驶员也常常觉得自己开车更放心)。如果无人驾驶汽车普及,这将是人类第一次大规模地将自己的身家性命交托给机器。
如果是一个低标准,即无人驾驶汽车的事故率略少于人类驾驶汽车的事故率即可(这可能是一个不难达到的标准),且人们如果愿意接受这一低标准的话,无人驾驶汽车大概现在就可以开始推广应用了。但只要它发生过几次事故(虽然人类驾驶导致的汽车事故每天都大量发生),人们就绝不会轻易放行其推广应用。这种谨慎是有道理的,我们很重视我们的主体性。
谈到主体性,除了事先选择,还有事后问责的问题,但无人驾驶汽车却使责任主体转移或者说变得不明确了,我想这也是目前人们对此非常谨慎的一个原因。对一个自然物无法问责,比如一块自然坠落的、砸伤人的山间坠石,你无法对它生气和追责。但如果这块巨石是被一个人推下来的,就不一样了。对一种像无人驾驶汽车这样的智能机器,我们主要向谁问责呢?无人驾驶汽车的直接驾驶者是机器而非人,但最终的主体还是可以追溯到规则的制定者和汽车的生产者等人或者政府机构和公司。作为当前驾车主体的人类驾驶员有千千万万,他们会做出许多不同的选择,问责也相对简单,除非原因是产品的设计有缺陷,否则行车事故的责任主要还是会由驾驶员和违规人员来承担。
目前不管在驾驶中遇到的情况如何千变万化,事件都是和人直接相关的,是具体的人在选择。而未来为机器制定规则肯定无法考虑到全部的情况,它大概只能给出一种通用类型,或者最多容有一些差别的几种类型的选择。假设在统一将“保存生命”置于最高原则的前提下,或许可以容有一些不同优先和权重的类型供价值倾向有差异的用户选择,比如“人类生命优先型”“人类与动物生命并重型”“救生概率优先型”“救生人数优先型”“车内人生命优先型”“车外人生命优先型”等等。但我很怀疑是否可以容有这么多种类型选择,这对人性也可能是一个测试——但最好不要去测试人性。故而,是否能开放这些类型的选择肯定会大有争议,很难获准。然而问题在于,如果用户完全没有选择的自由而只允许唯一一种通用类型,那么用户就没有多少责任,责任将主要集中于设计规则的组织机构和生产汽车的厂家。
问责总与选择自由有关,责任来自选择的责任。选择越自由、可能性越多,责任就越大。具体到无人驾驶汽车,可能会有三个问题:一是要不要设计价值取向方面的多重类型;二是要不要设计一些极端情况的选择规则;三是要不要在紧急情况下让无人驾驶汽车能够转归人类驾驶员驾驶。
对于第一个问题,如果回答是只能设计一种通用类型,那么使用者就可能没有多大责任。当然这里还要区分使用无人驾驶出租车的乘客与购买无人驾驶汽车的用户。前者应该是没有责任的,就像坐人驾驶的出租车的乘客对出租车发生的事故一般没有责任(除非是他影响到了司机进而导致事故)。但购买无人驾驶汽车的用户可能还要负有某种责任,虽然这种责任应该比无人驾驶汽车规则制定者和生产厂家小得多。这较少的责任来自他选择购买了无人驾驶汽车,这意味着他认可了为这种车制定的规则,并享用了它。
对于第二个问题,如果制定规则不考虑突然出现的极端情况(对何谓“极端情况”自然也还需要定义),那么就是遵循交通规则按原来的方向行进了。但是,如果出现上述那种道路中间突然出现一个人或一只动物,而右边自行车道又完全没有人的情况,我想人们一般也不会反对给机器制定这样的规则:即在这样的情况下汽车可以临时违规驶入无人的自行车道以避免毁灭道路中间的生命。
对于第三个问题,如果是遇到上述突发情况,转归人类驾驶可能没有意义和可行性,因为那时人类的反应速度和灵敏度还不如机器。但或许可以在通过一段复杂道路或面临持续的危险天气(比如暴雨、降雪)的情况下,预先将驾驶权交给人。
正如前文所述,我设计上述例证的主旨并不是为制定规则提供直接依据,而是希望提出问题,呈现制定规则中的紧张性,以及规则与原则的意义。许多具体抉择是需要在法规制定背后的道德原则的层次上进行充分思考和讨论的。
无人驾驶汽车已经在一些国家和地区进行了许多实验,个别公司在局部地区提供了试验性的无人驾驶出租车服务,虽然还没有投入真正的规模应用和作为商业产品销售,且对迅速大规模投入应用的期望值也已经从高峰跌落,但这一天看来还是要到来的。而要进入真正的应用,肯定需要预先制定一些以伦理为基础的法规。2017年6月,德国公布了全球第一个针对无人驾驶汽车的道德规则。哪怕它还不完善,很可能还需要修订,但这种预先防范的努力是值得赞许的。这些规则包括:保护生命优先于其他任何功利主义的考量,道路安全优先于出行便利,必须遵守已经明确的道路法规。无人驾驶系统要永远保证比人类驾驶员造成的事故少。人类生命的安全必须始终优先于对动物或财产的保护。为了辨明事故承担责任方,无人驾驶车辆必须配置始终记录和存储行车数据的“黑匣子”。不得对必须在两个人的生命之间做出选择的极端情况进行标准化设定或编程。法律责任和审判制度必须对责任主体从传统的驾驶员扩大到技术系统的制造商和设计者等这一变化做出有效调整。当发生不可避免的事故时,任何基于年龄、性别、种族、身体属性或任何其他区别因素的歧视判断都是不允许的。虽然车辆在紧急情况下可能会自动做出反应,但人类应该在更多道德模棱两可的事件中重新获得车辆的控制权等等。
当然,这一法规中的规则仍然是一些比较一般的原则规范,但它们强调了保障人的生命安全高于一切——高于功利、高于便利、高于财产、高于动物的生命。尽管这一法规肯定还需要在某些方面细化,也需要不断结合道德原则和现实进展情况进行重新审视、补充和修改,但它的确提供了一个宝贵的可供讨论的样本。
我们不要忘记,我们是在为一个比我们得到的信息更多、计算更快、动作更灵敏的机器设计规则乃至引入人类的价值观。它们在某些方面比我们更能干,但总体上并不比我们更智能。它们是专门化的工具,只用于汽车驾驶,可以确信不会发展为总体上超越人类智能和综合性的自我意识的超级智能机器。我们对它们的规则设计可以奏效,它们没有滥用或颠覆这些基本规则和价值的危险。但如果我们面对的是一种可能发展为具有全面功能,包括控制和指挥其他智能机器,乃至最后控制人的超级智能机器,我想我们大概是不能将有可能促进其产生自我意识的因素输入给它的。我们在这方面要慎之又慎,宁愿让机器在这方面“傻”一点。
同样是聚焦生命安全问题,现在我想提出另一个可供分析和讨论的个案:即直接涉及对暴力和强制手段的反应和使用,但目的是保障人的生命安全的智能机器。也就是说,为了一个良好的目的,为了一个保障人的生命安全的目的,是否可以生产具有暴力和强制功能的机器人,比如机器战警、机器保镖和有暴力功能的机器保姆?我们要不要这样的有力帮手?如果说不能要,是出于什么样的理由?人自己不是也在大量使用暴力和强制吗?为什么不能接受机器为了保护人而使用暴力和强制?
有关行使暴力的智能机器,据说已经有数十个国家正在秘密研制战争中可以使用的暴力机器,有些甚至可能已经成功了。但这个问题我们暂且不谈,这是一个涉及国际关系的悲哀话题。我们现在还是先集中讨论可能在一个国家内部使用的、包括可能民用的,具有暴力或强制功能的智能机器。
第一种是机器警察——不是那些功能很有限、纯属防御性且其行动是由人直接指挥而非自主的智能机器人(比如能够排除定时炸弹的机器人),而是一种“机器战警”,即和人类警察一样,配有各种武器,甚至还有自己更独特、更强大的武器或火力的“机器警察”。这样的警察看起来不是很好吗?能力超人、钢筋铁骨、不怕损失、没有私心、能够高效地执行除暴安良的任务,这不正是人们梦想的“完美警察”吗?
第二种是可供个人使用的、具有暴力和强制功能的机器保镖。它不掌握在政府手里,而是掌握在个人手里,为个人服务。这样的“机器保镖”就比较容易被我们否定了:如果一个想作恶的人获得了这样的机器,不是非常可怕吗?的确如此。而这样一个否定的理由也可以在某种程度上用于上述“机器战警”,因为政府中的一些个人、机构,有时甚至是整个政权机器,也可能滥用或误用这种智能机器。但无论如何,我们是有更强有力的理由排除“机器保镖”的生产销售的,因为善意的用户有了它们固然可以增加自己的安全保障,但恶意的用户杀人越货也就有强大的帮手了。
第三种情况更复杂一些:“机器保姆”。机器保姆可以用来照顾老人、病人和孩子,未来必将是一个广大的应用领域。但是否能让它们具有暴力和强制的功能呢?使用这些机器的人一般都是弱者,假设有歹徒入室侵犯用户,要不要让机器保姆能同样使用暴力制服暴徒?或者稍温和一些,让机器保姆具有一种强制功能,在判断某些老人或孩子的行为将对其生命健康造成严重伤害时,采取某些强制性的措施,比如关闭房门或限制行动,让人暂时成为“机器的囚徒”?
的确,在一些具体的情况下,如果机器具有这样的功能,在一时一事中大概是能够有效发挥作用的。但是如果让这成为普遍功能,这些功能同样有可能被机器和掌握机器的人误用甚至滥用,从全面和长远计,可能还是没有这种功能更好。尤其是当作为中枢的智能机器一旦突破人的控制,变得比人更聪明并具有自我意识时,它就可能独立判断,使用和指挥众多暴力机器达到自己的目的。
所以,人类不去发展具有暴力功能的自主智能机器,这是一种“防患于未然”。因为它们和人类已经发展出来的其他战争工具和杀人武器不一样,那些武器(比如核武器)还是处在人类直接指挥和控制之下的,智能杀人机器却具有一种自我学习能力,具有某种程度的自主性,它还可能具有完全的自主性。我们禁止它们可能会因此失去某些具体情况下强大的安全保障,但因此获得的一般情况下的安全系数却会更大。
当然,这并不是说人工智能机器不能在保障安全方面帮助我们。去掉机器的暴力攻击和强制功能,它们还是可以成为保护人类安全的重要工具。比如一个不具有暴力和强制功能的“机器保姆”,无疑还是可以被设计成具备监测和报警功能的,这样也可以威慑犯罪者和保护用户。但我们如果在这方面放开或放任暴力功能,就很可能会遇到难以测知的重大后果。
由此我想转入讨论高科技时代对现代伦理提出的一种新的重大挑战,即它所带来的“不可预测的严重后果”。那就是:我们做的许多事情看起来是好的,是探索物质世界、增长人类知识,甚至是试图造福人类的,但是由于技术达到了如此高端的程度,它的结果却常常是我们无法预知的。一些严重的恶果将可能和好的结果偕行,乃至超过好的结果,还有些实验甚至可能打开“潘多拉的盒子”。
比如,未来可能会有计算速度极快、掌握数据极多的量子计算机出现,它将可以解决许多计算难题,也能破解世上所有的加密方式。那么,假如第一台这样的计算机掌握在不怀好意或过于贪求自己利益的机构或国家手里,就可能造成金融动荡以及社会和政治危机。
又如合成生物将制造出许多新的便利科技产品和治疗疾病的良药,但合成生物也有可能带来生物武器和难以控制的入侵物种等巨大的危险。再如基因工程、克隆技术,它们有可能增强人的各种能力、延长人的寿命,但也有可能带来基因编辑婴儿和克隆人的危险。还有一些高科技的发展可能带来大规模的安防监控,将可能侵犯人们的隐私,使边沁所设想的全景监视不仅用于监狱,也用于整个社会。还有能够制造出几可乱真的虚假音频和视频——深度造假(Deep Fake)——的技术,可能摧毁好人的声誉、影响到司法证据等等,不一而足。
有科学家说,人工智能等高科技的发展目前都还在可控范围之内,就公开显示的信息而言,我基本同意。还有科学家认为,现在的人们可能高估了人工智能的发展速度,未来的二三十年都不会有发展出超级智能机器的可能或者出现大的危机。这也很好,我甚至希望这个时间能再延长到五六十年、上百年。但是,文明不仅要考虑十年大计、百年大计,还有千年大计。考虑到这几十年科技的飞速增长,以及各种意外发现的可能,以及下面将要谈到的人类现代文明的一个基本矛盾,人类就不能不尽早地未雨绸缪。
相对于其他动物来说,人的优势就在于:人有意识,从而能够有预期和计划地行动。在高科技时代之前,人虽然不能完全预测其行为的结果,但大致能够预测这结果的方向或性质。然而,进入到今天这样一个迅猛发展、不断变化的高科技时代,人们行动的后果不再像以前那样容易预测了,负面的后果可能比正面的成果更难于预测。而这后果一旦发生,有时相当严重,有时甚至是不可逆转的。
因为这些不可预知的后果的紧迫和重大,我们也许就需要一种预防性的伦理和法律,也就是说,为了防患未然起见,我们还要考虑如何对人们行为事先的动机和欲望有所限制,而不仅仅是在行为过程之中进行防范和在行为结果之后给予惩罚。
这样,面对“不可预知的严重后果”,现代伦理的两大流派——道义论和目的论——就都有一个在行为的过程和结果出现之前就预先防范的任务。道义论不能满足于只是在行为规范和过程的正当性上严防死守,也要考虑对行为动机进行有效地遏制;目的论也不能满足于只是抱有良好的目的并进行后果的评价,还要审视自身的目的动机,并谨防使用不当的手段来达到目的。
从人类整体进入到了一个高科技的时代来看,我认为似乎可以将目前人类文明的一个基本的、持久起作用的矛盾概括为人类不断快速增长的控物能力与自控能力的日益不相称。控物能力是指人向外用力,对外物有办法,表现为科技和经济;自控能力是指人向内有力,对自己有办法,表现为精神和道德。科技的发展目前看不到什么限度,或者说还有非常广阔的空间和提升的可能,但是道德的发展却会遇到人性的瓶颈,即人不可能成为天使。这并不是说现在的人比以前堕落、道德严重滑坡,而是只要人的道德自控能力不可能普遍提升到一个很高的程度,那么他所掌握的控物能力越大就越危险。人希望达到全能,但却永远达不到全善。人的这两种能力的不相称是一个根本的、近代以来始终存在,日后还很有可能加重的矛盾。而造成这一基本矛盾的原因,一方面是人对物质和身体的各种欲望在近代以来一直得到不断强化,平等释放了各种欲望,而物质的欲望渐渐成为主流,好新骛奇还在不断开发和刺激新的欲望;另一方面则是人类精神的注意力也转向了物质,本来可以驯化和节制欲望的各种制度和精神文化因素在不断弱化。
我们对现代伦理所期望的也许还有更多,即希望正当与好、规范与价值、道德与信仰能有一种比此前更紧密的结合,从而不仅让精神能够对道德的规则予以一种更强有力的支持,而且能帮助人们更注意生命的丰富和建立一种不那么物化的幸福观。