购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

结语
在人工智能时代重铸信任

我们看到,在迈向通用人工智能的技术加速时代,信任——政治智慧的一个根基性的创制——却处于深重的危机之中。奥特曼宣称FTC对 ChatGPT的调查“无助于建立信任”,然而问题恰恰在于,关于如何“建立信任”的思考,在当下已实质性地被边缘化,人工智能时代的研究者们,仅仅醉心于 用技术的方式 (如“机械可解释性工程” ) 来应对信任问题。

“价值对齐工程”与“机械可解释性工程”,都是在人类主义框架下 单方面地 试图让人工智能变得可信。然而,FTC与奥特曼的信任纠纷、围绕“双面马斯克”的信任质疑、争夺人工智能优势的主权国家之间的信任危机 (……),都标识出人工智能时代的信任问题远非这类人类主义技术工程能够解决。智人曾通过创制“信任”这种政治智慧来应对文明性困境,然而在今天这份智慧已然极为稀薄,严重缺少维护、更新与迭代。

我们目下面对的信任问题,是旧的困境并未缓解,新的挑战又已涌来。但有必要看到,大语言模型的信任问题,根植于人类彼此之间的信任问题。人工智能与人类都会输出不可靠的乃至错误的内容 (人类还可能故意这么做)。人工神经网络与人类的神经网络,都具有不透明性。大语言模型能生成语法正确的文本,甚至能通过“图灵测试”,然而它结构性地无法避免生成错误内容 (恰恰这就是向人类“对齐”的结果),甚至会从人类本就为撒谎而制造的大量文本中学习到谎言,从而可能做出“欺诈和欺骗行径” 。 奥特曼说 FTC 对ChatGPT的调查“无助于建立信任”,他没有说错。

我们无法离开信任而维系共同体的生活形态。在卢曼看来,“显示信任,就是期待未来”, “要简化以或多或少不确定的复杂性为特征的未来,信任就是必须的”。 溯本推源,信任并非一种技术性的智能,而是一种政治性的智慧。人工智能时代的信任问题,无法用人工智能来解决——大语言模型仅能归纳“建立信任”的已有做法,但却无法针对人工智能所带来的新挑战而做出迭代与创新,尤其是当大语言模型自身不被信任时。在人工智能以指数级速度升级其智能的当下,我们恰恰需要同步去发展与迭代政治智慧,来应对我们所面对的信任危机,以及可能的文明性奇点。 8c0MZLLLjLRvhEFj3tnc7juzNluUZ8ij4yf31TDR13pMqnJh/Ot2XaLPBhsUO/0a

点击中间区域
呼出菜单
上一章
目录
下一章
×