购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

不具备智能的计算机

我对人工智能论断的质疑形成于我申请进入麻省理工学院学习那段时间。加州大学伯克利分校颇具影响力的哲学教授约翰·塞尔(John Searle)说,计算机不是也不可能是智能的。为了证明这一点,他在1980年设计了一个叫作“中文屋”(Chinese Room)的思想实验。这个实验是这样的:

假设你有一个房间,房间的一面墙上有一条窄缝,房间里面有一个只会说英语的人坐在桌子旁边。他手里有一本厚厚的说明书,以及数量足够多的铅笔和草稿纸。这本说明书上用英语写明了操作、分类和比较汉字的方法。请注意,说明书中没有介绍汉字的含义,只介绍了如何复制、擦除、重新排序、抄录汉字等。

有人从房间外将一张纸从窄缝处塞了进来。上面用中文写着一个故事和与这个故事有关的问题。房间里的人不会说中文,也不认识汉字,但他拿起纸,按照说明书开始工作。他机械地按照说明书上的指令行事。指令有时告诉他在草稿纸上写字,有时又告诉他移动和擦除字符。这个人按照一条又一条的指令,书写和擦除字符,直到书中的指令告诉他,他的工作已经完成了。他的最终成果是一张写满了汉字的纸,他不知道这些汉字就是问题的答案。说明书告诉他,把这张纸从窄缝处递出去。他照做了,并想知道这乏味的一整套操作到底有什么含义。

房间外,一个懂中文的人正在阅读递出的那张纸。他表示,这些答案都是正确的,甚至见解深刻。如果有人问他,这些答案是否出自一个理解了这个故事的聪明人,他一定会说是的。但是他说的对吗?谁理解了这个故事?肯定不是房间里的人。房间里的人不懂中文,不了解这个故事是关于什么的。理解这个故事的也不是那本说明书,那只是一本书,静静地放在写字台上,和一堆纸在一起。那么,理解是在何处发生的呢?塞尔的答案是,没有理解发生,只是一系列无意识的翻页和用铅笔在纸上划来划去的动作而已。现在将这个场景套用到人工智能身上:“中文屋”和数字计算机简直一模一样。人是CPU,无意识地执行指令,书是向CPU提供指令的软件程序,而在纸上划来划去相当于将信息存入存储器。因此,无论计算机设计得多么巧妙,哪怕能够通过产生与人相同的行为来模拟智能,它都没有理解力,也没有智能。塞尔明确表示他不知道什么是智能,他只是说不管智能是什么,计算机显然并不具备这一能力。

这一观点在哲学家和人工智能专家之间引起了轩然大波,催生了数以百计的文章,并招来了很多谩骂。人工智能的捍卫者摆出了几十条理由反驳塞尔的这一观点,比如说,尽管房间里的所有部件都不懂中文,但整个房间懂,或者房间里的人在执行操作时理解了中文,只是他自己没有意识到而已。我则认为塞尔的观点是正确的。当我思考有关“中文屋”的争论,以及计算机如何工作时,我没有看到理解发生在任何地方。我确信我们需要理解什么是“理解”,需要一种定义它的方式,这样我们才能清楚一个系统什么时候是智能的,什么时候不是,什么时候理解中文,什么时候不理解中文。而它的行为并没有告诉我们这些。

人不需要通过“做”什么来理解一个故事。我可以安静地读一个故事,虽然我没有明显的行为,但我的理解和领悟是显而易见的,至少对我来说是这样。此外,你不能从我安静的行为中看出我是否理解这个故事,甚至不能看出我是否懂这个故事所使用的语言。你稍后可能会问我问题,看我是否理解了这个故事。但我的理解是在我读故事的时候发生的,而不仅仅是在我回答你的问题时发生的。本书的一个观点是,理解力不能用外部行为来衡量。正如我们在接下来的章节中将看到的那样,它反而是大脑记忆事物并利用这些记忆进行预测的内部衡量标准。“中文屋”“深蓝”和大多数计算机程序都没有类似的衡量标准。它们不明白自己在做什么。我们判断计算机是否拥有智能的唯一方法是通过其输出或行为进行判断。

人工智能的捍卫者给出的最有说服力的观点是,理论上,计算机可以模拟整个大脑。计算机可以模拟所有神经元及其连接,如果它做到了,就没有什么可以区分大脑的“智能”和计算机模拟的“智能”了。虽然这在实践中可能无法实现,但我认同这个观点。但人工智能研究人员并没有模拟大脑,因此他们的程序也没有智能。如果不先了解大脑的工作方式,就无法模拟它。 SlSf4rr5oSWj5c+3OieqLKNEFbuhSABpbPsuTfSk0gnCo3pO7gge8n7YbPveDL2Q

点击中间区域
呼出菜单
上一章
目录
下一章
×