无法建立信任 (互为缺乏“可信任性” ),会导致什么结果?
刘慈欣在其著名科幻小说《三体》里做了一个宇宙尺度上的沙盘推演,其结论是只要彼此存有猜疑,“猜疑链”就会启动,并且永远无从关闭,结果无可避免会走向“死神永生”。
让我们从科幻小说转到现实世界。 2019年2月1日美国宣布暂停履行美俄《中导条约》相关义务,正式启动为期180天的退约进程,并指责俄罗斯长期暗中违反条约规定。随后第二天,普京总统宣布俄罗斯暂停履行《中导条约》义务以回应美国相同举措,并强调美国为撕毁条约已准备多年,且故意一步步地破坏条约的基础。双方一个接一个来回指责,危机不断升级。7月3日普京签署法案,正式停止履行《中导条约》。 8月2日特朗普总统宣布美国退约进程完成。至此,《中导条约》全面失效。
两个大国,都不认为对方是可信任的 (都猜疑对方暗中违反条约)。就像发生在当代社交媒体上的“大 V 互撕”一样,两个大国你来我往让事态升级。最后那被签立32年的条约,数月间便不复存在。中短程导弹机动性强、射速快,一旦发射将只有极短的预警和反应时间。
美俄双方都知道,《中导条约》失效将实质性地提升两个核大国擦枪走火的风险。在全球已经小到成为“地球村”的今天,整个“人类共同体”因两个超级大国恢复中程导弹部署,而变得更接近文明性的深渊。
刘慈欣进一步提出:
猜疑链最重要的特性:与文明本身的社会形态和道德取向没有关系,把每个文明看成链条两端的点即可,不管文明在其内部是善意的还是恶意的,在进入猜疑链构成的网络中后都会变成同一种东西。
刘慈欣沙盘推演的结果,就是著名的“黑暗森林”(霍布斯笔下的“自然状态” ):任何人都出于对其他人的不信任而选择先下手为强,结果是所有能动者都活在永恒的恐惧中,都直面随时横死的危险。在这个意义上,美俄退出《中导条约》实际上同各自文明形态与价值取向没有关系,而是丧失信任的结果,其代价是整个人类文明被裹挟着离“死神永生”更近一步。
“猜疑链”,就是互为缺乏“可信任性”的表现形式——它实际上是无法建立
原初信任
的逻辑结果。每个个体 (国家甚至文明) 在自身之所知信息与理性证据之外,不愿意进一步做出“透支”。进入“猜疑链”逻辑的个体,是无法彼此进入政治性的共同体状态:它们只能始终处于霍布斯所说的前政治的“自然状态”,人与人像狼与狼般互撕。
通向“死神永生”的猜疑链,印证了西美尔的观点:没有信任,无从构建社会,甚至无从构建最基本的人际关系。西氏写道:
如果人们对彼此没有一般的信任,社会自身将解体,那是因为:很少人际关系能够整个地建立在对另一个人
确知的内容
上。如果信任不和
理性证据
与
个人观察
一样坚强,甚至更坚强,那么很少人际关系能够维持。
西美尔的分析,根本性地触及了“共同体”构建的政治哲学层面:缺失信任,共同体无以成立。也正是在这个意义上,信任实应被理解为
政治智慧的一个创制
——对于来自他人的、“理性证据”与“个人观察”无法确认的内容 (无法“确知的内容” ),选择信任而不是猜疑,能够使人际关系以及建立其上的社会性合作成为可能。智人之间的信任,同生物性演化无关,而是柏格森所说的
创造性演化
的产物。
信任的底层问题就在于,信任无法自发地 (或者说“自然地” ) 形成 。博弈论里被反复讨论的“囚徒困境” (prison-ers' dilemma),实际上就是因囚徒彼此无法形成信任而共同陷入困境——他们皆担心自己咽下被背叛的恶果 (自己服最长刑期而对方立功减刑甚至直接释放),所以会 理性地 选择招供,明知倘若彼此都能信任对方守口如瓶的话,检方就会缺乏实质性证据起诉他们,于是便都能摆脱牢狱。后一种状况,就是“帕累托最优” (Pareto optimality),然而囚徒们却缺少抵达的“智慧”,那是因为:他们只要从理性角度出发,招供就是“囚徒困境”中的“支配性的策略” (dominant strategy ),亦即不管对方怎么做,这个策略对自己而言都是最好的;而不招供,就是“被支配的策略” (dominated strategy),不管对方怎么做,这样做对自己都是不好的。
从博弈论角度出发,如果博弈中有支配性策略,作为理性的人就一定要选择该策略;而任何情况下都不要选择被支配的策略。这就意味着,两个理性的囚徒无从摆脱“囚徒困境”:两人都会招供,尽管彼此都得坐牢,但这却是最稳定的、理性推演必然会抵达的状态。这种状态,便是“纳什均衡” (Nash equilibrium) ——在该状态中没有任何一方愿意单方面改变自己的策略。
囚徒们都清楚最好是两人都不招供,但要变必须两人一起变,自己不能先变,这样就导致谁都不会变。囚徒们要抵达“帕累托最优”,只有依赖一个一无凭借的、 “理性证据”与“个人观察”都不支持的
跃步
(leap) 。
信任没有理性的根基,是对信息的非理性透支。这就意味着,信任,归根结底只能依赖于一个跃步,而这个跳跃可能会一脚踏空,用西美尔的话来说,“任何信任永远隐含着一个风险”。
这个风险就是被背叛的风险。当一个大国选择相信另一个大国信守武器条约,它就承担了一个风险,在会被察知的范围之外,对方继续偷偷发展武器。同样地,对不透明的人工智能给予信任,亦承担了一个风险:它偷偷在发展灭绝人类的计划。
索伦·克尔凯郭尔在论述宗教信仰时,提出了著名的“信仰的跃步” (leap of faith) ——这一步只能是跳跃,而无法通过理性论证而抵达。
信任的结构,在形式上同信仰完全一致,都依赖于一个彻底一无凭借的跃步而抵达。然而,前者跃向全知全能、直接具身化 (embody) 善与真理的上帝;而后者则跃向另一个能动者 (人抑或人工智能)。
信任的跃步
,
实质上比信仰的跃步难得多
,因为它没有任何的倚靠——既没有理性与科学的支撑,也没有上帝与神学的支撑。
面对信任隐含的结构性风险,我们该怎么办?这是否意味着:我们应该放弃信任,抑或,一部分能动者努力去将其他能动者彻底置于“控制”之下?
讨论决断时,德里达曾写道:
一个决断如果没有穿过
无可决断之折磨
(ordeal of the undecidable),那它将不可能是一个
自由的决断
,它只会仅仅是程序化的应用或一个计算好的过程的展开。
尽管德氏没有探讨信任问题,但信任恰恰是这样一个自由的决断——该决断是在无可决断之域做出,理性无法给予支撑,形而上学与神学也无法给予支撑。这也就是为什么德里达会说, “决断之事,是一个疯狂”。
然而,发展与更新政治智慧,恰恰不仅需要理性的参与,而且需要理性视角中的“疯狂”——后者使得人激进地突破“程序化的应用”,突破“一个计算好的过程的展开”。人工智能不可能发明出信任。智人发明了信任。
信任,堪称政治智慧一个根基性的创制和发明。没有信任这种东西被“凭空”创制出来,文明状态 (亦即共同体状态)乃至任何人际关系都无法达成。 信任,使得有限个体 (局部信息、局部认知) 之间凭借理性与逻辑所不可能达成之事成为可能 。政治哲学家菲利普·佩蒂特曾提出:
不只是信任建立在信任之上,如在一个给定的人际关系内的信任的积累。信任也能够建立在
空无
(nothing )之上,并且能够第一时间帮助建构这种人际关系。
有意思的是,佩蒂特在具体论述中,仍是为信任找了一个理性基础 (用其本人的话说,“一个好的地基” ),那就是“被对方看得高的益处”。
换言之,佩氏并不认为信任能够纯粹建立在空无之上,其论述旨在为信任提供一个可以进行理性论证的理据,使人“可以有一个理由去信任另一个人,即便他实际上并没有理由去相信对方先在的可信任性”
。
那种建立在空无之上的
原初信任
,只能是一个自由的决断,一个一无凭借的、 “凭空”做出的、没有任何基础和支持的跃步。该决断,是理性眼中的“疯狂”,然而恰恰亦是最根基性的政治智慧——它是通向“猜疑链”抑或“共同体”的根本性关键,它使得人际关系成为可能。没有信任,人的群处与合作实是彻底不可能。商业公司也好,科研团队也好,恋爱关系也好,如果每个人把精力都花在核查其他人上,这个“共同体”根本走不远,因为这种核查是无止无尽的,它会将所有时间、精力、资源都吸进深渊性的无底洞。作为政治智慧的信任,移除了不得不频繁核查他人的负担,从而使人际合作成为可能。上一章第三节曾讨论了,人类群处的规模与合作的方式在“轴心时代”有了政治性的突破,这就使得思想传承与知识迭代成为可能。而信任,便是促成这种群处与合作的核心智慧。
亚里士多德在其《政治学》中提出:“人依据自然,是政治的动物。”
归根结底,这是一句形而上学的论断——脑科学家无法定位到这个“ (人之) 自然”。政治学的研究,使我们能经验性地定位到一个又一个具体的政治智慧 (譬如,彼此信任) ——这些政治智慧使人们一次又一次免于陷入前政治的“互撕”境况,以文明状态取代“自然状态”。
于是,经验性地 (而非形而上学地) 来看,智人,确实是一种有能力以共同体 (亚里士多德笔下的“城邦” ) 形态群处在一起的动物。一个人彻底独自生活,则完全不涉及信任,也无须其他的任何政治智慧。但以共同体方式来群处生活,人就需要不断发展与更新其政治智慧,来小心翼翼地避免陷入那种人人自危的“黑暗森林”。
当把信任视作一个根基性的政治智慧时,我们就能意识到:并不存在某种形而上学 神学的保障,使得人能够时刻守住这份智慧。智人必须一次又一次用实践性的智慧,来显示自身仍是“政治的动物”。而今天这个通用人工智能时代,恰恰是政治智慧变得十分稀薄的时代:夫妻因为缺乏生活的智慧而频繁互撕,不同群体因缺乏实践性智慧而无法群处在一个社会性空间中,主权国家因解决不了信任问题而撕毁武器条约……
人类面对彼此时,尚无法轻易做到让自身成为可信任的,尚时不时地退回到没有赢家的互撕状态,但却拍脑袋提出要求:人工智能必须成为“可信任的人工智能”。如果人工智能真的做到了向人类“对齐”,那么,它恰恰结构性地无力使自身彻底变得“可信任” 。像ChatGPT这样的大语言模型无可避免地内嵌“偏见”,它们可能会“幻制” (hallucinate ) 信息,它们可能会产生推理错误。然而,这些问题人类都有,如果不是比ChatGPT更严重得多的话——这是否就意味着人和人无法建立信任,或者必须将一部分人彻底置于另一部分人的“控制”之下?
我们看到:针对人工智能的信任危机,
实乃根植于人类彼此之间的信任危机
。对于马斯克这位人工智能威胁论代表人物而言,发展人工智能的风险,并不仅仅是“强人工智能”可能对人类做出人类对青蛙做出的行径,风险同样来自“国家间对人工智能优势的争夺,很可能引发第三次世界大战”
。后一种风险,实际上就来自人类彼此之间的信任危机:作为能动者的主权国家,并不信任彼此会在任何意义上暂停人工智能的开发,哪怕它真的会将人类文明带向末世。
现在,再让我们提出一个尴尬的问题:多年来始终在呼吁暂停人工智能开发甚至因此获得过“乐戴奖” (Luddite Award)的马斯克,是否值得信任?就在马斯克联署“暂停训练 GPT”公开信 (排名第三) 十来天后,便被曝光为推特购买了上万个GPU (图形处理器) 芯片用于训练自家的生成式人工智能,从谷歌DeepMind招募了人工智能人才,并在内华达州注册创建了一家名为“ X.AI”的人工智能公司。
马斯克被媒体评论为“双面马斯克”,其呼吁暂停开发人工智能,被视为只是为了让自己赶上来……我们是否信任马斯克真的在全力促停人工智能开发?
和马斯克一起联署“暂停训练 GPT”公开信的本吉奥,在3个月后的一次对谈活动中公开提出:
数十年来,化石燃料公司一直知道他们的活动可能对地球造成高度破坏,但是在利润的驱动下在一定程度上隐瞒了这一事实。实际上,企业的行为与社会需求并不完全一致。同样的情况也有可能发生在人工智能领域。
在资本主义的利润驱动机制下,化石燃料公司数十年来欺骗公众,人工智能企业也同样地会欺骗公众。对本吉奥而言,我们不能信任资本主义系统里的行动者。故此他宣称:“我并不喜欢目前我们正在进行的大规模人工智能研发模式。”
本吉奥没有提到“双面马斯克”争议,然而从其关于“企业的行为”的分析来看,答案亦是鲜明的。
前文亦已经谈到,在ChatGPT受到资本市场热捧后,各种相似的大语言模型以眼花缭乱的速度争相问世。在资本主义系统中,只要有盈利空间,资本就会源源不断涌入,何况是高额盈利的空间。
对于资本逻辑推进下的人工智能产业,我们可以套用一句尤瓦尔·赫拉利写在《未来简史》中的话:“只要让他们获得新发现、赢得巨大利润,大多数的科学家和银行家并不在乎要做的是什么事情。”
娜奥米·克莱恩曾经提出“灾难资本主义” (disaster capitalism) 一词,意指资本主义把灾难变成“激动人心的市场机会”。
在我看来,这个词同样精准地勾勒出技术加速时代的信任问题与资本逻辑:即便灾难就在门口,资本主义系统也无法做到让自身停止下来。
面对这种“灾难资本主义”,斯拉沃热·齐泽克曾慨叹:
今天,我们很容易想像人类的灭亡,但
社会系统的一个激进改变,
则是无法想像的。
大语言模型问世以来,一大批人类社会最卓越的智者们争先恐后地站出来,向媒体描述人类灭亡的风险,但无人在政治层面探讨社会系统的一个激进改变——关于信任问题的技术政治学分析让我们看到,这才是人类文明的实质性危机。