购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

二 作为“常人”之音复读机的ChatGPT

ChatGPT本质上乃是传统的神经元网络技术—深度学习技术在“预训练”(pre-training)与“转换器”(transformers)技术背景中的一种升级。关于何为“预训练”和“转换器”,本书第五章会加以说明。作为此类讨论的基础,在此,笔者将首先说明传统的神经元网络技术是如何运作的,因为这种说明将有助于澄清作为“预训练”之基础概念的“训练”(training)的含义。

神经元网络技术的实质,便是用数学建模的办法建造出一个简易的人工神经元网络结构,而一个典型的此类结构一般包括三层:输入单元层、中间单元层与输出单元层(如图2-2所示)。输入单元层从外界获得信息之后,根据每个单元内置的汇聚算法与激发函数,“决定”是否要向中间单元层发送进一步的数据信息。整个系统以“化整为零”的方式,将宏观层面上的识别任务分解为系统组成构件之间的微观信息传递活动,并通过这些微观信息传递活动所体现出来的大趋势来进行信息处理。工程师调整系统的微观信息传递活动之趋势的基本方法如下:先是让系统对输入信息进行随机处理,然后将处理结果与理想处理结果进行比对,若二者的吻合度不佳,则系统触发自带的“反向传播算法”来调整系统内各个计算单元之间的联系权重,使得系统给出的输出能够与前一次输出不同。两个计算单元之间的联系权重越大,二者之间就越可能发生“共激发”现象,反之亦然。然后,系统再次比对实际输出与理想输出,如果二者吻合度依然不佳,则系统再次启动反向传播算法,直至实际输出与理想输出彼此吻合为止。上述过程就叫“训练”。而完成此番训练过程的系统,一般也能够在对训练样本进行准确的语义归类之外,对那些与训练样本比较接近的输入信息进行相对准确的语义归类。

图2-2 一个被高度简化的人工神经元网络结构模型(笔者自制)

如果读者对于上述的技术描述还有点似懂非懂的话,那么不妨就通过下面这个比方来进一步理解人工神经元网络技术的运作机理。假设有一个不懂汉语的外国人跑到少林寺学武术,那么,师生之间的教学活动到底该如何开展呢?这就有两种情况。第一种情况是:二者之间能够进行语言交流(譬如,少林寺的师父懂外语)——这样一来,师父就能够直接通过“给出规则”的方式教授他的外国徒弟。这种教育方法,或可勉强类比于传统的符号人工智能的路数。另一种情况则是这样的:师父与徒弟之间完全语言不通。在这种情况下,学生又该如何学武呢?唯有依赖如下这个办法:徒弟先观察师父的动作,然后跟着学,师父则通过简单的肢体交流来告诉徒弟,这个动作学得对不对(譬如:如果对,师父就微笑;如果不对,师父则对徒弟棒喝)。进而言之,如果师父肯定了徒弟的某个动作,徒弟就会记住这个动作,继续往下学;如果不对,徒弟就只好去猜测自己哪里错了,并根据这种猜测给出一个新动作,继续等待师父的反馈,直到师父最终满意为止(注意:因为师徒之间语言不通,徒弟不能通过询问而从师父口中知道自己哪里错了)。很显然,这样的武术学习效率是非常低的,因为徒弟在胡猜自己的动作哪里出错时会浪费大量的时间。但这“胡猜”二字却恰恰切中了人工神经元网络运作的实质。概而言之,这样的人工系统其实并不知道自己得到的输入信息到底意味着什么——换言之,此系统的设计者并不能与系统进行符号层面上的交流,正如在前面的例子中师父无法与徒弟进行言语交流一样。毋宁说,系统所做的事情,就是在各种可能的输入与输出之间的映射关系中随便选一种进行“胡猜”,然后将结果抛给人类预先给定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。如果真蒙中了,系统则会通过保存诸神经元之间传播路径权重的方式“记住”这蒙中的结果,并在此基础上继续“学习”。而这种学习的“低效性”之所以在计算机那里能够得到容忍,则是缘于计算机相比自然人而言的一个巨大优势:计算机可以在很短的物理时间内进行海量次数的“胡猜”,并由此遴选出一个比较正确的解,而人类在相同时间能够完成的猜测的数量则是非常有限的。一旦看清楚了里面的机理,我们就不难发现:人工神经元网络的工作原理其实是非常笨拙的。从这个角度看,工程师对人工神经元网络的“训练”与人类武僧对于人类学徒的“训练”也并不是一回事。

读到这里,读者或许会问:在外国徒弟学武功的案例中,判断其动作对不对的乃是那个少林武僧,而在人工神经元网络中,谁又来做这个判官呢?

答案是“人类标注员”。其任务是给每一个系统的样本输入提供一个人类群体认可的“标准答案”——而系统将根据“标准答案”与自己所给出的答案之间的比对结果来修正自己的网络分布方式,以期自己的输出能够越来越接近正确解。这里需要注意的是,作为神经元网络之升级版的深度学习机制,其所需要的训练数据量是很大的,所以,人类标注员的工作量也是很大的。因此,目下的主流人工智能系统的运作方式本身就是建立在对于大量“人工”的剥削之上的。需要指出的是,虽然ChatGPT技术的“预训练”阶段并不需要人工标注员的大量干预(详见本书第四章),但是完整意义上的ChatGPT系统的研发流程依然需要人工标注员对输出的质量加以控制,以便删除那些不符合美式“政治正确”标准的语言输出。

从海德格尔哲学的角度看,这种人工智能系统训练方式将不得不把“常人”的意见加以建制化与机械化,由此使得社会意识形态的板结现象变得更为严重。这又是因为整个机器学习机制的运作本身就是基于统计学规则的:换言之,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上会被过滤掉。所以,从原则上看,假若ChatGPT技术在托勒密的时代就出现的话,哥白尼的“日心”说恐怕会永远被判定为错误答案。

说得更具体一点,今天的ChatGPT技术,主要是通过以下四种措施来强化“常人”的意见独裁力的:

第一,由于工程师很难用纯粹统计学的办法(比如通过计算相关关键词之出现词频的办法)来确定聊天机器人的输出本身是否在意识形态层面上合乎规范,为了规避可能的法律、政治与道德风险,开发ChatGPT技术的美国OpenAI公司就雇用了大量的人类评分员对机器的自动语言输出的意识形态合规性打分。在需要被处理的材料是海量的前提下,这样的工作显然是无聊乏味的,而对于一些不雅内容的审读甚至还让部分评分员产生了心理问题。根据《时代》杂志的揭露,目前OpenAI公司将此类内容评分任务经由SAMA公司分包给肯尼亚等欠发达国家的劳工,而这些劳工所获得的时薪不足2美元。 由此不难设想,用如此低廉的价格所雇用的人类评分员,究竟会有多大的工作热情完成他们所面对的工作。他们所能做的,恐怕也只能是以最快的速度完成手头的评分工作——而从心理学的角度看,人在缺乏深思熟虑的情况下所给出的评分意见,往往也只能是“常人”的意见(因为一种跳出常规的思维显然会动用更多的认知资源)。这当然是一种强化“自欺”的社会体制——因为任何一种对萨特式“自由”的探索都需要探索者冷静地反思自己与他人的不同,而不是毫无犹豫地用他人的语言去言说自己的心声。至于上述人类标注员自身的学识限制所带来的天然的“常人”视野,则更是不必多言。

第二,正如前文所指出的,OpenAI公司对ChatGPT的输出有特定的意识形态审查。已经有研究更确切地指出,ChatGPT提供的答案的隐蔽意识形态趋向乃是环保主义与左翼社会自由主义趋向的。 这显然是公司高层的意识形态意见向技术产品进行渗透的产物。这里需要注意的是,在政治哲学层面上所提的“自由主义”并不是萨特在存在主义场域中提出的“本真性自由”,因为后者要求行动者对所有行为的真实内在理由进行反思,而绝不主张人云亦云地接受任何未经反思的政治教条——包括政治自由主义的教条。因此,假若萨特愿意在美国的政治背景中重述他的“自由”观的话,他也应当完全允许这种可能性的存在:一个惯常给民主党投票的美国人,完全有权利出于真诚的理由,在某次选举中转而去支持一位共和党的议员,尽管后者的某些言论会与“自由主义”的字面教条产生抵触。但很显然的是,按照一定内在的规训原则运作的ChatGPT是无法抵抗技术控制者的意志而进行这种自由探索的。

第三,从时间样态上看,“常人”的天然时间标签乃是“过去”,“自由”的天然时间标签则是“未来”。而任何的深度学习机制都必然带有“过去”的时间标签——因为大量的数据搜集、喂入与训练都会消耗大量的时间,并由于这种消耗所造成的时间差而必然与“当下”失之交臂,遑论去进一步拥抱未来。而ChatGPT依然没有摆脱这一深度学习机制的宿命。从笔者的亲测体验来看,时下的ChatGPT技术平台对2021年以后发生的新闻事件(如2022年2月爆发的俄乌冲突)都无法进行有效的信息处理,而且很难对未来的事件进行具有创新力的预见。这就使得其在根本上无法摆脱“常人”意见从历史中带来的惯性。

第四,与传统聊天盒技术相比,目前的ChatGPT具有根据不同用户的输入习惯改变自身答案的能力——换言之,它能记住特定用户的说话倾向,并投其所好地修改自己的输出。从表面上看来,这貌似是此项技术尊重用户个性的体现——看得更深一点,这种“尊重”本身乃是一种无原则的谄媚,而不是真正的自由精神所需要的质疑与反思。因此,这依然是一种对于“常人”态度的表露。此外,别有用心的人也能利用ChatGPT的此项“谄媚”而借由“人海战术”去系统改变ChatGPT的知识输出方式,由此使得其成为认知战中的一个环节。

综合以上四点,我们不难得到这样一个推论:一个长期依赖ChatGPT的人类用户,会因为习惯于该机制对于“常人”意见的不断重复,进一步丧失对于这些意见的反思力。因此,即使他隐约意识到了某个机器输出的答案可能是有问题的,他也会自言自语说:“这毕竟是ChatGPT提供的答案,又怎么可能是错的呢?”——这样一来,他便会陷入萨特所定义的“自欺”(即遮蔽实现自由的可能性),甚至还会陷入英美分析哲学所定义的“自欺”(即持有一个自己都知道根据不足的具体信念)。

下面,笔者就将通过本人亲测ChatGPT的一些技术测评记录,来更为感性地展现这一技术平台是如何系统压制萨特所提倡的那种“反自欺力”的。 df0s1QgP/SWQUxF7/SvVq1V2FxlutAfdpfqf19qFhqvtNBhqK8sCQQlL0dNmPC5P

点击中间区域
呼出菜单
上一章
目录
下一章
×