购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

第1章
电脑能有精神吗

引论

电脑技术在过去的几十年间有了极其巨大的进展。而且,很少人会对未来的几十年内在速度、容量和逻辑设计方面的伟大进步有所怀疑。到那时候,今日的电脑将显得正和我们今天看早年的机械计算机那样的迟钝和初等。其发展的节律几乎是令人恐惧的。电脑已能以人类远远不能企及的速度和准确性实现原先是属于人类思维的独霸领域的大量任务。我们对于机器能在体力方面超过自己早已司空见惯,它并不引起我们的紧张。相反的,我们因为拥有以巨大的速度——至少比最快的田径运动员快4倍——在地球上均匀地推动我们,以一种使几十个人相形见绌的速率挖洞或毁灭废弃建筑的装备而感到由衷的高兴。机器能实现我们过去在体力上从未可能的事,真是令人喜悦:它们可以轻易地把我们举上天空,在几个钟头内把我们放到大洋的彼岸。这些成就毫不伤害我们的自尊心。但是能够进行思维,那是人类的特权。正是思维的能力,使我们超越了我们体力上的限制,并因此使我们比同伙生物取得更加骄傲的成就。如果机器有朝一日会在我们自以为优越的那种重要品质上超过我们,那时我们是否要向自己的创造物双手奉出那唯一的特权呢?

机械仪器究竟能否思维的问题——也许甚至会体会到感情,或具有精神——不是一个什么新问题 [1] 。但是,现代电脑技术时代的来临赋予它新的冲击力甚至迫切感。这一问题触及到哲学的深刻底蕴。什么是思维?什么是感觉?什么是精神?精神真的存在吗?假定这些都存在,思维的功能在何种程度上依赖于和它相关联的身体结构?精神能否完全独立于这种结构?或许它们只不过是(合适种类的)身体结构的功能?无论如何,相关结构的性质必须是生物的(头脑)吗?精神——也能一样好地和电子设备相关联吗?精神服从物理定律吗?物理定律究竟是什么?

这些都被包括在本书我要试图探索的问题之中。要为这么崇高的问题寻求确定的答案当然是无理的要求。我不能提供这个答案:虽然有些人想用他们的猜测强加于我们,但在实际上,任何人也做不到。我自己的猜测在本书后头将起重要作用,但是我要清楚地把这些猜想和坚实的科学事实区分开来,并且我还要把这些猜想所依据的原因弄清楚。我不如这么说好了,有关在物理定律、数学性质和意识思维的结构之间的关系引起了某些显然全新的问题,我陈述了以前从未有人发表过的观点。这不是我三言两语即能足以描述的观点,因此需要写这么长篇幅的书。但是简略地讲,也许这样会引起一点误会,我至少能说,我的观点认为,正是我们现在对物理基本定律缺乏理解,才使我们不能物理地或逻辑地掌握“精神”的概念。我在这里不是讲,永远不可能很好地掌握这些定律。相反的,本书的部分目的即是企图在这一方面似乎有前途的方向去刺激将来的研究,并且想要提出某些相当特殊的、显然是新的关于“精神”实际上可在我们知道的物理发展中占据什么位置的建议。

我应该清楚地表明,我的观点在物理学家中是非传统的,并因此在目前不太可能被电脑科学家或生理学家所采纳。大部分物理学家会宣称,在人脑尺度下有效的基本定律已经完全知道。当然,在我们物理知识方面一般地仍有许多空白这一点,是无可争议的。例如,我们不知道制约自然的亚原子粒子质量值以及它们相互作用强度的定律。我们还不能使量子理论和爱因斯坦的狭义相对论完全协调——遑论去建立“量子引力论”了。这种理论要使量子理论和他的广义相对论相协调。由于还没有量子引力论,人们就不能理解在已知基本粒子大小的1/100000000000000000000的不可思议的微小尺度下空间的性质,尽管我们以为自己关于比这更大尺度下的知识是足够的。我们也不知道这整个宇宙无论在空间上还是在时间上是有限的还是无限的,尽管这样的不确定性对于人类尺度的物理学似乎没有什么影响。我们不理解既作用于黑洞的核心又作用于宇宙本身大爆炸起源处的物理学。然而,所有这些问题似乎和人类大脑运行有关的“日常”(或稍小一些)尺度问题的距离是要多遥远就有多遥远。它们肯定是遥远的!尽管如此,我将论证,正是在我们鼻子尖(不如说是后面),在我们的物理理解中,正是在和人类思维和意识的运行相关的水平上,还存在巨大的无知!正如我将要解释的,甚至大多数物理学家还不承认这个无知。我还要进一步论断,黑洞和大爆炸与对这些问题的考虑的确有相关之处,这真是令人吃惊!

我将要用证据来支持我提出的观点以说服读者。但是,为了理解这些观点我们还要做许多事。我们将要到奇异的国度以及陌生的研究领域中去旅游。我们要考察量子力学的结构、基础和困惑,狭义和广义相对论、黑洞、大爆炸、热力学定律、电磁现象的麦克斯韦理论以及牛顿力学的基本特征。当企图要理解意识的性质和功能时,哲学和心理学问题的作用就清楚地呈现出来了。除了设想的电脑模型外,我们当然要对大脑的实际神经生理学稍有些了解。我们要具备人工智能现状的某些观念,还需要知道什么是图灵机,需要理解可计算性、哥德尔定理以及复杂性理论的意义。我们还将深入到数学的基础甚至物理实在的最本质的问题中去。

如果,在这一切的结尾,读者对我要表达的不太传统的论证仍然无动于衷,那么我希望她或他从这个曲折迂回的,但我希望是激动人心的旅途中,得到某些真正有价值的东西。

图灵检验

让我们想象一种新型的电脑被推广到市场上来,它的记忆容量和逻辑单元的数目可能超过了人脑。还假定为此机器仔细地编了程序,并提供了合适种类的大量数据。制造者宣称这种仪器实际上在思4维。他们也许还宣布它们真正是有智慧的。或许他们还走得更远,并提出该仪器实际上感到痛苦、快乐、慈悲、骄傲等,并且自己知道以及实际上理解它们自己的所作所为。的确,它们仿佛就要被宣布是有意识的。

我们如何才能相信制造者的宣称呢?当我们通常买一台机器时,完全根据其所提供的服务来判断其价值。如果它令人满意地完成了我们规定的任务,我们就很高兴。若不是这样,就把它送回去修理或代换。为了检验该制造者所宣称的该仪器实际上具有人类的属性,我们会根据这一判据,简单地判断它在这些方面是否能和人类一样地行为。假定它令人满意地做到这些,我们就没有原因去抱怨制造者,也没有必要把这台电脑退回修理或代换。

这就为我们提供了有关这些事体的非常有效的观点。假定该电脑的动作和一个人在思维时的动作方式不能区分,行为主义者就会说它在思维。我在此刻暂且采纳行为主义者的这一观点。当然,这不意味着我们要求电脑以一个人在思考时可能行走的方式移动。我们更不指望它会活灵活现地像人类:这些和电脑的目的无关。然而,这意味着我们要求它对任何我们介意问它的问题产生拟人的答案。假定它以一种和人类不能相区别方式提供这些答案,则我们就宣称对它的确在思维(或感觉、理解,等等)这个事实表示满意。

阿伦·图灵在题为《计算机和智力》的著名文章中有力地论证了这一观点。该文于1950年发表在哲学性杂志《精神》上( Turing 1950 )。(我们以后还要时常提到图灵。)现在称作图灵检验的观念就是首次在这篇文章中描述的。这是为了检验一台机器是否能合情理地被说成在思维的企图。让我们假设一台电脑(正如上面描述的、我们制造者所叫卖的)确实被宣称为在思维。按照图灵试验,该电脑和某个人类的自愿者都躲开到(知觉的)质问者的视线之外。质问者必须依赖向他们双方提出检验问题,来决定两者何为电脑何为人类。这些问题以及更重要的是她 收到的回答,全部用一种非人格的模式传送,譬如讲打印在键盘上或展现在屏幕上。质问者不允许从任何一方得到除了这种问答之外的信息。人的主体真实地回答问题并试图说服她,他确实是人而另外的主体是一台电脑;但是该电脑已被编好了“说谎”的程序,为了试图说服质问者它反而是人。如果质问者在一系列的这种检验的过程中,不能以任何一致的方式指明真正的人的主体;那么该电脑(或电脑程序,或程序员,或设计者等)肯定是通过了这一检验。

现在人们也许会争辩道,这种检验对于电脑实际上是不甚公平的。因为如果交换一下角色,使人的主体被要求去假装成电脑,而电脑作真实的回答,那么要质问者去发现哪个是哪个就太容易了。她所要做的一切只是要求这些主体进行某些复杂的算术计算。一台好的电脑能够一下子准确地回答,而人很容易被难倒。(然而,人们对此要稍微小心一些。有些“计算奇才”具有非常惊人的心算技巧,从不算错并且显得轻松胜任。例如约翰·马丁·萨查里阿斯·达斯 [2] ,一位文盲农夫的儿子,1824—1861年生活在德国。他能在比1分钟短的时间内用心算完成两个8位数的乘法,或在大约6分钟时间内完成两个20位数的乘法!很容易错认为这是一台电脑在计算。在现代,亚历山大·爱特金和其他人的计算成就也一样地令人印象深刻。爱特金是20世纪50年代爱丁堡大学的数学教授。质问者对此检验所选择的算术问题必须比这个更令人绞尽脑汁,譬如,在2秒钟内乘2个30位数,一台好的现代电脑可轻而易举做到这一点。)

这样,电脑程序员的部分任务是使电脑在某一确定方面比它实际更“愚蠢”。因为如果质问员要问该电脑一个复杂的算术问题,正如我们上面考虑过的,那么现在电脑必须假装回答不了或者马上放弃!但是我相信以这种方式使电脑变“愚蠢”不是电脑程序员面临的特别严重的问题。使之回答一些最简单的人类不会感到有任何困难的“常识”问题正是他们的主要困难!

然而,在引用这类特例时存在一个固有的问题。因为不管人们会首先提出什么,很容易设想一种方法使电脑正如一个人的样子去回答那个特殊问题。但是,在电脑方面的任何真正理解的缺乏都会因为不断地询问而显露出来,尤其是对于具有创造性和需要真正理解的问题。质问者的一部分技巧在于能设计出如此创造性的问题,另一部分是利用设计来揭示出是否发生某些实在“理解”的探测性的其他问题去追踪它们。她偶尔也可以问一个完全无聊的问题,看看电脑能否检测出差别来,她或者可以加上一两个表面上听起来像是无聊的,而实际上有一点意义的问题,例如她可以说:“我听说,今天上午一头犀牛在一个粉红色的气球中沿着密西西比河飞。你怎么理解此事?”(人们可以想象该电脑的眉头上,泛出冷汗——用一不适当的比喻!)它也许谨慎地回答:“我听起来觉得这不可思议。”到此为止没有毛病。质问者又问:“是吗?我的叔叔试过一回,顺流逆流各一回,它只不过是浅色的并带有斑纹。这有什么不可思议的?”很容易想象,如果电脑没有合适的“理解”就会很快地暴露了自己。在回答第一个问题时,它的存储器可以帮助它想到它们没有翅膀,甚至可以在无意中得到“犀牛不能飞”,或者这样地回答第二个问题“犀牛没有斑纹”。下一回她可以试探真正无意义的问题,譬如把它改变成“在密西西比河下面”,或者“在一个粉红色的气球之中”,或者“穿一件粉红色夜服”,再去看看电脑是否感觉到真正的差别!

让我们暂且撇开是否或何时能造出通过图灵检验的电脑的问题。让我们仅仅为了论证的目的假定,这种电脑已被造出。我们可以问,一台通过检验的电脑是否应该必须说出思维、感觉和理解等。我将要很快地回到这事体上来。此刻我们且考虑它的一些含义。例如,如果制造者的最强的宣布是正确的,就是说他们的仪器是一个思维的、感觉的、敏感的、理解的、意识的生物,那么在我们购买该仪器时就涉及道义的责任。如果制造者的话是可信的,事情就应该是这样子的!开动电脑仅仅是为了满足我们的需要而不考虑其自身的感情应受到谴责。那在道义上和虐待奴隶没有什么差别。一般地说,我们是应避免使电脑经受制造者宣称的它会感觉到的痛苦。当它变得和我们很亲近时,要关掉也许甚至卖掉它,在道义上对我们都是困难的。就会出现因我们和其他人类或其他动物的关系而要把我们卷入的其他无数的问题。所有这些现在都变成紧密相关的事体。这样,让我们(以及当局!)知道制造者的宣布是否是真的,便具有极大的重要性!我们假定这个宣布是基于他们如下的断言:“每一台思维的仪器已被我们的专家严格地进行了图灵检验。”

我仿佛觉得,尽管这些声称的某些含义,尤其是在道义上有明显的荒谬性,但把成功地通过图灵检验当作存在思维、智慧,理解或意识的有效指标的情形,实际上是相当强的要求。如果我们不交谈的话,何以判断他人也具备这些品质呢?实际上还有其他的譬如面部表情、身体运动以及一般动作等判据,它们会大大地影响我们所作的这种判断。但是,我们可以想象(也许在更为遥远的将来)可把一个机器人制造得能成功地模拟所有这些表情和动作。这下子就不必要把机器人和人的主体躲藏在质问者的视界之外,但是质问者随意支配的判据在原则上可和以前相同。

我本人的观点是准备把图灵检验的要求大大地减弱。我似乎觉得要求电脑这么接近地模仿人类,以使得在一种相关的方式下不能和一个人区分开实在是太过分了。我自己想要求的全部是,我们知觉的质问者应该从电脑回答的性质对在这些回答背后的意识存在真正地感到信服,尽管它可能是非常异样的一种意识。这就是迄今建造的所有电脑系统明显缺乏的某种东西。然而,我能觉察到这样的一种危险,如果质问者能决定哪一方事实上是电脑,那么她可能也许是无意识地迟迟不把甚至她能感觉到的意识赋予电脑。或者在另一方面,她也许有这个印象,即她“嗅”到了这个“异物的存在”,即便该电脑没有这种可疑的好处,她还是准备赋予它这个好处。由于这种原因,就在图灵检验原先形式的更大的客观性上,它具有明显的优点,我在下面就一般地遵循于这种形式。我早先提到的对于电脑引起的“不公平”(也就是它必须做人能做的一切才能通过,而人不必会做电脑能做的一切)似乎没有使把图灵检验当作思维等真正检验的支持者忧虑。无论如何,他们的观点时常倾向于不必等太长时间,譬如讲到2010年,一台电脑就能实在地通过这一检验。(图灵原先提出,到2000年,对一位“中等的”质问者仅仅5分钟的提问,电脑的成功率为30%。)这意味着,他们相当有信心,这一不公平不会显著地延迟这一天的到来!

所有这些事体都与根本问题有关:也就是这一操作的观点是否实际上为判断一个对象中存在精神的品质提供一组合理的判据?有些人会竭力争论说它不是。不管模仿得多么有技巧,终究不和实在的东西一样。我在这一方面的看法是比较中庸。我倾向于相信,作为一般的原则,不管是多么巧妙的模仿,应该总能被足够巧妙的探测检验得出来,尽管这只是信念(或科学乐观主义)而不是已被证明的事实。这样,总的来说,我准备把图灵检验接受为在它的选定范围内是粗略成立的。也就是说,如果电脑对这些问题的确能以一种和人不能区分的方式回答,并如此适当地 一致地愚弄了我们有理解力的质问员,那么在缺乏任何相反的证据下,我猜想电脑实际上是在思维、感觉等。我在这儿用的这个词,譬如“证据”、“实际上”和“猜想”,其含义是当提到思维、感觉或理解或尤其是意识时,我用这些概念去表明实际客观的“事体”,它在物理形态上的存在与否是我们要确定的某种东西,而不仅仅是语言上的方便!我把这当作一个关键点。我们在所有能得到的证据的基础上作猜测,以辨别这种品质的存在。(这和譬如讲,天文学家想辨别遥远恒星的质量,在原则上没有什么不同。)

必须考虑哪一些反证据呢?关于这一点要预先立下规则是很困难。但是我要弄清楚的是,仅仅说电脑是由晶体管、导线等而不是由神经元、血管等构成的事实本身,我不认为是反证据。我在心里想到的是,在将来的某一时候可以发展出成功的意识理论,这里成功的含义是,它是一个连贯的适当的物理理论,以一种美丽的方式与物理理解的其余部分相协调,而且使它的预言精确地与人类所称何时、是否、到何等程度他们自己觉得是意识相互关联,而且这一理论在考虑我们电脑的想象的意识方面的确关系重大。人们甚至可以摹想按照这一理论的原则建造的“意识探测器”。对于人的主体它是完全可靠的,但在电脑的情形给出与图灵检验相左的结果。在这种情形下,人们必须非常小心地解释图灵检验的结果。我似乎觉得,人们对图灵检验的合适性问题的态度部分地依赖于他对科学技术如何发展的期望。我们以后必须再来考虑其中的一些问题。

人工智能

人工智能是近年来引起人们很大兴趣的一个领域,经常被简写成“AI”。AI的目标是用机器,通常为电子仪器,尽可能地模拟人的精神活动,并且或许在这些方面最终改善并超出人的能力。AI的结果至少在4个方向是有趣的。尤其是有关机器人的研究,它在很大的程度上是为了满足工业对可实行“智力”的,也就是万能和复杂的、原来需要人干预或控制任务的机械仪器的实际需要,并使他们以超过任何人的能力的速度和可靠性,或者在人类处于危险的各式各样条件下运行。还有专家系统的发展颇具商业和一般的兴趣,在这系统中整个职业的,譬如医学、法律等的主要知识都能编码载入电脑的系统知识库里。这些职业人员的经验和专长能被这种系统知识库所取代吗?所能指望得到的是否只不过是事实的罗列以及意义广泛的前后参考的长长的表格?电脑能否呈现(或模拟)出真正的智慧肯定具有相当大的社会含义。心理学是和人工智能有直接关系的另一领域。人们希望通过利用电子仪器来模拟人脑或某些其他动物头脑的行为,倘若发现做不到,也可以知道有关头脑工作的某些重要的东西。最后,还存在一个乐观的希望,就是由于类似的原因,AI可为精神概念的意义提供洞察,并为其深刻的哲学问题提供一些答案。

迄今为止,AI已进展到何等程度呢?让我来总结是有一些困难。在世界各地存在许多活跃的小组,而我只熟悉这工作的一小部分的细节。尽管如此,可以公正地说,AI虽然的确做了许多聪明的事,但对真正智慧的任何模拟还是非常遥远的事。为了使读者领略这个学科的风味,我首先提到早先的(仍然是令人印象深刻的)成就,以及后来在计算机下棋方面的重要进展。

W.格雷·瓦尔特的“乌龟” [3] 是20世纪50年代早期制造的第一批人工智能仪器之一。在电池快用光前,它会以自己的动力在地面上四处爬行,而且还会爬到离得最近的电插座那儿,把自己插上给电池充电。当充满了电以后,自己会从插座拔出,并重新在地面上爬行!从那时起人们制造出来许多类似的东西(例如,参见Waltz 1982)。另一独立发展的线索是以特雷·维诺格拉德在1972年设计的电脑程序为例子,它在模拟中可以和一堆不同形状和颜色的木块打交道,以不同的顺序和排列把一块放在另一块的上面。尽管早期获得这类成功,但人们证明了,即使设计一个简单的能操纵自如的、避开人类看来“显然”需用动作来躲开的障碍物的、连接的“机器人手臂”也是何等的困难。视场的解释通常也是AI步骤在目前根本无法接近人脑(以及绝大多数其他动物的头脑)似乎能“轻而易举”做到的那种程度的领域。

K. M.柯尔贝在20世纪60年代中期发展的电脑程序也许更和图灵检验相连贯。它如此成功地模拟成一位精神疗法专家,以至于某些病人发现自己宁愿要电脑而不要人类的医疗家,并且对电脑比对人类的对手更愿把自己的内心袒露得更多些。可将下列(通过电传机)的交谈视作在电脑“医生”和病人之间的这种交流的一个例子 [4]

医生:我可以为你效劳吗

病人:我不知道

医生:请告诉我一些情形

病人:不

医生:请你说得仔细些

病人:今天我厌烦得很

医生:你知道这是什么原因

病人:是的,我老了

医生:请继续讲

病人:仿佛任何事情都激不起我的兴致

医生:请更多地告诉我你的这种感觉

病人:我也略知为何我会有这样的感觉

医生:是吗

病人:我似乎在想有一个家

医生:什么东西使你有这样的想法

病人:它是一种挑战

医生:为什么那对你是重要的

虽然这会给你一种电脑具有某种理解力的可怕印象。在事实上它一点也没有,只不过是遵循着某种相当简单的机械规则而已。(还存在一个和它相“颠倒”的系统,这时电脑装成一个痴呆症病人,给出教科书的所有答案和症状,并能捉弄一些医科学生,使之相信是一位病人在提供回答!)

计算机下棋也许为机器能显示可认为是“智慧行为”的最好例子。现在(1989年)一些机器在与人对弈时实际已达到极受尊敬的水平,达到了“国际大师”的水准。(为了比较起见,世界冠军卡斯帕洛夫评分高于2700,而这些电脑的评分略低于2300。)特别是,邓恩和卡斯·斯帕拉克连(为忠诚优越商业微处理机)写的电脑程序已达到2110的(Elo)评分,并得到USCF“大师”称号的奖。主要由卡内基·梅隆大学的徐宪编程序的“深思熟虑”更是令人印象深刻,它的评分约为2500Elo,最近在一次下棋锦标赛中(1988年11月,加利福尼亚,长堤)首次取得了(和大师托尼·迈尔斯)共享第一名,并实际上第一回击败了一位大师(本特·拉申)的成就 [5] !现在下棋电脑也精于解答棋术问题,它在这方面的造诣轻而易举地超过了人类 [6]

下棋机除了精确的计算能力外,还大大地依赖于“博学多闻”。值得评论的是,只要落子动作要求非常快,下棋机总的来说比相当多的弈手高明一些。如果每一着允许的时间更长,则弈手的表现相对地比机器好。人们可依照如下事实来理解这一切,电脑是基于准确和快速的广义的计算来做决策的,而弈手则依赖于利用相对缓慢的意识评定的“判断”。利用这些人的判断来显著地减少必须在每一计算步骤中认真考虑的可能性,当有时间时,可以得到比不用这类判断而只用简单计算和直接排除可能性的机器更深刻的分析。在玩困难的东方围棋时,这一差别就更显著,那里每一步的可能数目比国际象棋大得多。意识和形成判断之间的关系,将是我后面尤其是第10章论证的中心。

用人工智能得到“快乐”和“痛苦”

人工智能宣称为理解精神品质,譬如快乐、痛苦、饥渴等提供了途径。让我们举格雷·瓦尔特的乌龟为例子。它的行为模式在电池快用完时就要改变,然后它以被设计好的行为方式补充自己的能量存储。这和人类或任何动物感到饥饿时的行为非常类似。当格雷·瓦尔特乌龟以这种方式行为时,说它饥饿了并没十分歪曲语言。其中的某些机制对它电池的状态很敏感,低到一定点时就会让乌龟转换到不同的行为模式。在动物饥饿时,除了其行为模式的改变更复杂、更微妙之外,无疑存在某些类似的动作。它不是简单地从一种行为模式改变到另一种行为模式,而是存在一种以确定方式行为的倾向的变化,当补充能量供应的需求增加时,这些变化就会更强烈(达到某一点)。

类似地,某些AI的支持者摹想,可以这种方式来适当模拟诸如痛苦或快乐的概念。让我们把情形简化,并只考虑从极端“痛苦”(分数为-100)到极端“快乐”(分数为+100)的单独的“感觉”测度。想象我们有一台仪器,譬如讲是某种电子的、具有记录它自己的(假想的)“快乐——痛苦”度量,我把它称作“苦乐表”。这一仪器具有一定的行为模式和一定的内部的(譬如它的电池状态)或外部的输入。其想法是把它开动以使其苦乐度取最大值。可能会有许多影响苦乐度的因素。我们肯定可以做这样的安排,使得电池中的电荷就是其中的一个因素,低电荷算作负的,而高电荷算作正的,但是还有其他因素。也许我们的仪器装有某些太阳能电池,这是获取能量的另一种手段。这样,当光电池起作用时就不消耗电池的能量。我们可以把光电池朝向光线以增加其苦乐度。这就是不存在其他因素时它所要做的事。(实际上,格雷·瓦尔特乌龟通常避开光线!)我们需要某种实行计算的手段,使得它能弄清它上面部分的不同动作最终在它的苦乐度上的可能效应。可以引进概率权重,使得计算在苦乐度表上具有更大或更小的效应,依其所根据的数据的可靠性而定。

还必须为我们仪器提供仅仅为了维持它的能量供应以外的其他“目的”,否则我们就没有办法去把“痛苦”从“饥饿”中区别出来。在此刻要求我们仪器有生育等功能无疑是太过分了,性的问题不予考虑!但是,我们也许能对它注入一种和其他同类仪器相陪伴的“需求”和它们相遇就得到正的苦乐值。我们或者可以为了其自身的缘故“渴望”学习,使得只要储存有关外部世界的事实即能在苦乐表上得正分(我们可以更自私地安排在为我们作各种服务时得到正分,正如一个人在制造机器仆人时所要做的那样!)。也许有人会争论道,由于凭一时高兴把这种“目的”加到我们的仪器上显得有些做作。但是,这和自然选择加在作为个体的我们身上的,在很大程度上是由于传宗接代的需求所支配的一定“目标”,并没有什么非常大的差别。

现在,假设我们的仪器按照所有这一切已被成功地造出。我们有什么权利去宣称它的苦乐值为正时它确实感到快乐,而苦乐值为负时感到痛苦呢?AI(或行为主义)的观点是,我们简单地从仪器行为的方式来判断。由于它以一种尽可能增加其正值的(并且尽可能久的)以及相应地尽量避免负值的方式行为,所以我们可以合理地把它的值的正的程度定义为快乐的感觉,而相应地把负值定义为痛苦的感觉。人们会说,此定义的“合理性”正是来自于人类对于快乐和痛苦是以目标方式反应的这一事实。当然,正如我们都知道的,人类的事情实际上并不像这么简单:我们有时似乎特地招惹痛苦,故意回避某种快乐。很清楚,我们的行为实在是由比这些更复杂得多的判据所导引的(参阅 Dennett 1978 ,190—229页)。但是作为一个非常粗糙的近似,我们的行为的确是避免痛苦和追求快乐。对于一个行为主义者来说,这已经足够在类似的近似水平上,为我们的仪器的苦乐度和它的痛苦快乐评价的相认同提供正当的理由。这种认同仿佛也是AI理论的一个目的。

我们应该问:在我们的仪器的苦乐度为负或为正时,它是否真正分别地感觉到了痛苦或快乐呢?我们的仪器在根本上是否能感觉到什么呢?行为主义者或者会斩钉截铁地说“显然如此”,或者把这一问题斥为无稽之谈。但是,我觉得这里很清楚地存在一个要考虑的、严肃的困难问题。它对我们自己具有不同种类的影响。有些像痛苦或快乐是可意识的;但是还有其他我们不直接知道的。这可由一个人触摸到热火炉的经验得到清楚的阐明。他在甚至还未感到痛楚之前就采用了抽手回来的不情愿的动作。事情似乎变成,这种不情愿的动作比痛苦或快乐的实际效应更接近于我们仪器对自己的苦乐度的反应。

人们经常用一种拟人化的语言,以一种叙述性的、通常是滑稽的方法来描述机器的行为:“今天早晨我的车仿佛不想动”;或“我的手表仍然认为这是加利福尼亚时间”;或“我的电脑宣布,它不理解上一条指令,而且不知道下一步要做什么”。我们当然不是真正地表明车实际上会要什么,或者手表在思维,或者那台电脑 真的宣布任何事情,或者它理解甚至知道自己在做什么。尽管如此,假使我们仅仅在它们企图的意义上而不是按字面宣布上接受这样的陈述,则它们可以是描述性的,并且对我们自己的理解有真正的帮助。我将会对AI的有关各式各样建造起来的仪器所具有的精神品质的声称采取类似的态度,而不顾及他们所企图和渴望的!如果我同意说,格雷·瓦尔特乌龟会饥饿,那只是在半开玩笑的意义上这么说的。如果正如上面所摹想的,我准备对苦乐值使用诸如“痛苦”或“快乐”等术语,那只是因为我发现其和我自己的精神状态的行为有一定的相似性,这些术语有助于我对其行为的理解。我不是暗示这些类似真的是特别接近,或者不存在其他无意识的以更加类似得多的方式影响我行为的东西。

我希望使读者清楚,我的意见是,对精神品质的理解,除了直接从AI得到之外,还存在有更大量的东西。尽管如此,我相信AI实现了一种值得尊敬和慎重处理的严肃的情势。我在说到这些时,并不意味着在人工智能的模拟中,如果有的话,有非常多的成就。但是人们必须心中有数,这个学科还是非常年轻的。电脑的运行会变得更快速,具有更大的可快速存取的空间、更多的逻辑元,并可并行地进行更大数目的运算。在逻辑设计和程序技术方面将会有所改善。这些机器,这种AI哲学的载体将在它们的技术能力方面得到大幅度的改善。此外,该哲学本身也不是固有地荒谬的。也许电脑,也就是当代的电脑的确能非常精确地模拟人类的智慧。这种基于今天被理解的原则,但是具有更伟大得多的能力、速度等的电脑一定会在近年内被制造成功。也许甚至这样的仪器将真正是智慧的;也许它们会思维、感觉以及具有精神。或者它们也许还制造不出来,还需要一些目前完全缺乏的原则。这些都是不能轻易排斥的问题。我将尽我所见地提出证据。我将最终提出自己的看法。

强人工智能和西尔勒中文屋子

有一种称作强人工智能的观点在这些问题上采取相当极端的态度 [7] 。根据强AI,不仅刚才提到的仪器的确是智慧的并且有精神等,而且任何计算仪器,甚至最简单的机械的,诸如恒温器的逻辑功能都具有某种精神的品质 [8] 。这种观点认为精神活动只不过是进行某种定义得很好的,经常称作算法的运算。下面我将精确地说明算法实际上是什么。此刻暂且把算法简单地定义为某种计算步骤就已足够了。在恒温器的情形下,其算法至为简单:仪器记录其温度是否比设定的更高或更低,然后使线路在前面情形时断开,而在后面情形时接通。对于人脑的任何有意义的精神活动,其算法必须比这复杂得多,它和恒温器的简单算法在程度上具有极大的差别,而在原则上则相同。这样,根据强AI,人脑的主要功能(包括它的一切的意识呈现)和恒温器之间的差别只在于,在头脑的情形中具有大得多的复杂性(或许“更高级的结构”,或“自省性质”,或其他可赋予算法的属性)。按照这一观点,至为重要的是,所有精神品质,譬如思维、感情、智慧、理解、意识都仅仅被认为是这一复杂功能的不同侧面;也就是说,它们仅仅是头脑执行的算法的特征。

任何特殊算法的价值在于它的表现,也就是它的结果的精确,它的范围,它的经济性和它可运行的速度。一种想和人脑中假想的运行的算法相比拟的算法一定是非常了不起的东西。如果头脑中存在有这一类算法,强AI支持者肯定作此断言,那么在原则上它可在一台电脑上执行。假定它不受存储容量和运算速度的限制的话,的确可在任何当代的通用电脑上执行。(我们以后去考虑普适图灵机时,这一评论就会得到证实。)人们预料,在不太远的将来大型快速电脑将会克服任何这类限制。一旦这样的一种算法能被找到,它就能通过图灵检验。强AI支持者就会宣布,只要执行该算法,它自身就会体验到感情,具有意识,并且是一种精神。

绝不是每一个人都同意,可用这类方法把精神状态和算法相等同。美国哲学家约翰·西尔勒(1980,1987)尤其反对这种观点。他引用过这种例子,即假定有一台适当地编了程序并已经实际上通过了简化的图灵检验的电脑;但是他以有力的论证支持如下观点:即便如此,这台电脑仍然完全不具备和理解有关的精神属性。其中一个例子是基于罗杰·施安克( Schank and Abelson 1977 )设计的电脑程序之上。该程序的目的是为理解简单的故事提供模拟,例如:“一个人进入餐馆并订了一份汉堡包。当汉堡包端来时发现被烘脆了,此人暴怒地离开餐馆,没有付账或留下小费。”第二个例子是:“一个人进入餐馆并订了一份汉堡包。当汉堡包端来后他非常喜欢它;而且在离开餐馆付账之前,给了女服务生很多小费。”作为对“理解”这一故事的检验,可以询问电脑,在每一种情形下此人是否吃了汉堡包(这一事实在任一故事中都没有说清)。电脑对这类简单的故事和问题可给出和任何讲英文的人都会给出的根本无从区别的回答,也就是对于这些特定的例子,第一种情形是“非”,而第二种情形是“是”。这样一台机器已在这一非常有限的意义上通过了图灵检验!

我们应该考虑的问题是这类成功是否实际上表明电脑方面或许程序本身方面具有任何真正的理解。西尔勒使用了他的“中文屋子”的概念来论证它不具备。他首先摹想,这一故事是用中文而不是英文来讲,这肯定是非本质的改变。把这一特殊演习的电脑算法的所有运算(用英文)作为一组指令提供给用中文符号进行操作的计算员。西尔勒想象自己被锁在一个屋子里操纵这一切。代表这一故事和问题的一连串符号通过一条很小的缝隙被送进这屋子。不允许任何其他的来自外面的信息漏进去。最后当所有的操作完成后,程序的结果又通过这条缝隙递到外面来。由于所有这些操作都是简单地执行施安克程序的算法,这个最终程序的结果简单地为中文的“是”或者“非”,给出了关于以中文说的故事用中文问的原先问题的正确答案。现在,西尔勒很清楚地表明他根本不识中文,这样他对该故事讲的是什么没有任何哪怕是最浅显的概念。尽管如此,只要正确地执行了那些构成施安克算法的一系列运算(已给他用英文写的这一算法的指令),他就能和一位真正理解这故事的中国人做得一样好。西尔勒的要点是,而且我以为是相当有力的,仅仅成功执行算法本身并不意味着对所发生的有丝毫理解。锁在他的中文屋子里的(想象的)西尔勒不理解任一故事的任一个词!

人们对西尔勒的论证提出了许多异议。我将只提到我认为具有重要意义的那些。首先,在上面用到的“不理解任一个词”的短语也许有容易使人误导的东西。理解和模式之间正与它和单独词汇之间有一样多的关系。在执行这类算法时,在不理解许多个别词汇的实在意义的情形下,人们可以知觉这些符号构成的模式的某些东西。例如,中国字的“汉堡包”(如果真的有这个词的话)可用某一其他的食品譬如讲“炒面”来替换,而故事不会受到重大影响。尽管如此,我觉得可以合理地假设,如果人们仅仅跟踪着这种算法细节的话(即使认为这种代换不重要),则只传递了该故事中很少的实际意思。

其次,人们必须考虑这个事实,如果用人类的操纵符号来执行的话,在正常情形下甚至执行一个相当简单的电脑程序也会是非同寻常的冗长和繁琐。(这毕竟正是我们让电脑来为人类做这种事的原因!)如果西尔勒真的以这种提议的方式实行施安克的算法,那么仅仅是为了得到哪怕是一个单独问题的答案,他很可能要花费许多天、许多月甚至许多年极其枯燥的工作,这根本不像是一位哲学家的活动!然而,由于我们在这里主要关心原则的而不是实践的事体,所以我仿佛觉得这不是一个严重的反对。在具有和人脑相当的足够的复杂性、并因此适当地通过图灵检验的假想的电脑程序中产生了更多的困难。任何这类程序都是极可怕的复杂。人们可以想象,为了回答甚至相当简单的图灵检验问题,这一段程序的运算会涉及如此多的步骤,以至于在一个正常人的一生中根本没有可能用手完成这一算法。在没有这种程序的情形下,这是否的确如此还很难说 [9] 。但是,依我的观点,这一极其复杂的问题无论如何不能简单地不予理睬。是的,我们在这里关心的是原则的事体,但是一个算法要呈现出精神品质,其复杂性就要达到某一“临界”量,我认为这是合情理的。这一临界量也许是如此之大,复杂到这等程度的算法,由任何人以西尔勒摹想的样子用手来进行,根本就是不可想象的。

西尔勒本人允许一整队不能讲中文的符号操作员去取代原先中文屋子里的孤独者(“他自己”),以此来抵抗上面的反对。为了得到足够大的数目,他甚至想象把它的屋子用印度整个国家来代换,现在它的全部人口(除了理解中文的人以外!)都来从事符号操作。虽然这在实践上是荒唐的,但在原则上却不是,而且该论断在本质上和以前是一样的:尽管强AI宣称只要实现适当的算法即会诱导出“理解”的精神品质,这些符号操作员仍然不理解这故事。然而,现在另有一种反对正开始幽然逼近。这些单独的印度人难道不是比起来更像人脑中的神经元而不像整个人脑本身吗?没人认为神经元本身会单独地理解这个人的思想,神经元的激发明显地构成人脑在进行思考时的物质活动,为何要期望单个印度人去理解这中文的故事呢?为了答复这一诘问,西尔勒指出,如果在印度没有一个单独的人理解这一故事,而真实的国家却能理解显然是荒唐的。他论证道,一个国家正像一台恒温器或一辆汽车与“理解”毫不搭界,而与单独的个人却有关系。

这一论证,比前面的那个要苍白无力得多。我认为,西尔勒的论证在只有一个单独的人在实行算法时力量最强大,这时我们只限于注意一个不复杂到可由一个人在短于一生的时间内实际执行的算法的情形。我认为他建立这一结论的论证不够严格,这就是不存在和一个人实行那个算法相关的离体的某种类型的“理解”,而且这种理解的存在并不以任何方法反射到他自身的意识上去。然而,我和西尔勒都同意,至少可以说,这种可能性被减少到很微小的程度。我认为西尔勒的论证对之还有相当的力量,即使它还不完全是结论性的。施安克的电脑程序所具有的这类复杂性的算法不能对其实行的任何任务有丝毫真正的理解,对这一点的展示是相当令人信服的,而且它(仅仅)暗示,不管一种算法是多么复杂它都不能自身体现真正的理解。这和强AI的声称相矛盾。

就我所能看到的,强AI观点中还有其他非常严重的困难。强AI观点就只管算法。这个算法是由头脑、电脑、印度整个国家、轮子和齿轮还是由一套水管系统来执行都是一样的。其观点是,对于被认为由算法所代表的“精神状态”,只有它的逻辑结构是有意义的,这与那个算法的特殊的物理体现完全无关。正如西尔勒所指出的,这在实际上导致了一种“二元论”的形式。二元论是由极富影响力的17世纪的哲学家兼数学家雷恩·笛卡儿所提倡的,它断言存在物质的2种不同的形式:“精神的东西”和通常物质。这两类物质的一种是否并且如何去影响另一种是个额外的问题。关键是认为精神的东西不是由物体所构成,并能独立于它而存在。强AI的精神东西是算法的逻辑结构。正如我刚评论过的,一个算法的特殊的物理体现,是完全无关的某种东西。算法有某种离体的“存在”,这和它的按照物理的实现完全分离。我们要多么认真地对待这种存在是我在下一章还要讨论的一个问题。它是抽象数学对象的柏拉图实在的一般问题的一部分。此刻我且回避这一般的问题,而且仅仅评论强AI支持者所仿佛的确相信的算法形成它们思维、感情、理解以及意识、知觉的“物质”。正如西尔勒指出过的,强AI的立场似乎把人们逼向极端的二元论,也就是强AI支持者最不愿意与之打交道的观点,这真是富有讽刺意味!

这就是在道格拉斯·霍弗斯达特(1981)的题为《和爱因斯坦头脑谈话录》的对话中所论证的事件背后的两端论。他本人是强AI的主要提议者。霍弗斯达特捏造出一本极厚的书,假想它能包含对阿尔伯特·爱因斯坦头脑的整个描述。正如活着的爱因斯坦要回答的那样,只要简单地翻阅该书,并仔细地按照所提供的细致的说明,任何人愿意问爱因斯坦的问题都能得到回答。当然,正如霍弗斯达特所指出的那样,“简单”是十足的误称。但是他的宣称是,在图灵检验的操作意义上,这本书在原则上完全等效于实在的爱因斯坦的慢得可笑的复件。这样,按照强AI的论争,这本书可像爱因斯坦本人那样思维、感觉、理解和知觉,但是也许是以极慢的节律生活(这样,从书——爱因斯坦看来,外部世界似乎以疯狂的高速度闪现)。由于这本书被认为仅仅是组成爱因斯坦“自己”的算法的特殊体现,它实际上就是爱因斯坦。

但是,现在出现了新的困难。这本书也许从未被打开过,或者它被无数追求真理的学生和研究者熟读。这本书怎么“知道”这种差别呢?这本书也许不必被打开,它的信息可由X射线立体扫描术或其他技术的魔法取出。爱因斯坦的知悉是否只有当这本书被考察时才被唤起呢?如果两个人在两个完全不同的时刻去问该书同样的问题,他是否发觉是发生了两回?或者那是否使爱因斯坦知觉的同一状态在两个分开的和时间不同的事件中实现?或许只当该书被改变时,他的知觉才被唤起?毕竟在正常情况下,当我们知觉到从影响我们记忆的外部世界接受到一些信息时,我们的精神状态确实稍被改变。如果是这样的话,这是否意味着,算法的“适当的”改变(我在这里把记忆的储存包含到算法部分中去)而不是(或者以及)算法的激活被认为和精神事件相关?或者即便书——爱因斯坦从未被任何人或任何东西考察或扰动过,它是否维持在完全自知觉的状态?霍弗斯达特触及了其中的一些问题,但他完全不想去回答这些,或者和我们大多数人妥协。

去激活或者以物理形式体现一个算法是什么意思呢?改变一个算法是否和仅仅抛弃一个算法并且用另一个取代之在任何意义上是否不同呢?这些究竟和我们意识知悉的感觉有关吗?读者(除非他或她本人是强AI支持者)也许会惊讶,为什么我为了这样明显的荒谬的思想花了这么多的篇幅。事实上,我不认为这一思想在本质上是荒谬的,它仅仅是错误的!在强AI的背后的推理中的确有某种必须慎重对付的力量,我将解释这一点。我的观点是,这些思想若被适当地修正的话,还具有一些魅力,正如我还将告知诸位的。此外,依我的看法,西尔勒表达的特殊的矛盾的观点还包含某些严肃的困惑和表面的荒诞,尽管如此,在一定程度上我仍然同意他!

西尔勒在他的讨论中似乎隐含地接受当代的电脑,但是还加上大大加快了的动作速度和快速存取的记忆容量(而且可能并联运行),可以在不太遥远的将来体面地通过图灵检验。他是准备接受强AI的论点(以及其他大部分“科学”观点),“我们是任何电脑程序的体现”。此外,他还附和这种说法:“头脑理所当然地是一台电脑。由于任何东西都是一台数字电脑,头脑也是 [10] 。”西尔勒坚持,人脑(它可有精神)和电脑(他论证说没有精神),两者都可以执行同样算法,两者功能之间的差别完全在于各自的物质构成。但是,由于他不能解释的一种原因,他声称生物体(头脑)可有“意图性”和“语义性”,他把这些定义为精神活动的特征,而电子仪器没有。我觉得这对于得到科学的精神理论实质上没有什么用处。也许除了生物系统(而我们刚好是这样的系统)的进化来的历史的“方式”以外,关于它有什么特殊的东西特地被恩准获得意图性或语义性?我觉得这一断语就像教义一样地令人可疑,甚至也许不比强AI的坚持的只要执行一个算法即能召唤起意识知觉的状态的说教更加独断!

我的意思是,西尔勒以及大量其他的人被电脑专家引入歧途。而这些电脑专家又依序地被物理学家引入歧途。(这不是物理学家的过错。他们甚至不知道发生了什么事情!)“每一件东西都是一台电脑”的信念似乎已广泛蔓延。我在本书的愿望是为了表明,为何以及如何情况并非如此。

硬件和软件

在电脑科学的行话中,术语硬件表示一台电脑,涉及的实在的机构(印刷线路、晶体管、导线、磁性存储空间等),包括了把所有东西都联结起来的方法的全部细节。相应地,术语软件是指可在机器上进行的各种程序。阿伦·图灵的一个杰出的发现便是,任何其硬件达到一定程度复杂性和灵活性的机器,都等效于任何其他同类机器。这一等效性的含义是,对于任何两台这样的机器A和B,存在一段特别的软件,如果将其赋予机器A,就会使之完全像机器B一样地动作;类似地,还存在另一段特殊的软件,如果将其赋予机器B,就会使之和机器A完全一样地动作。我在这里用词“完全一样”是指,对任何给定的输入(在对机器提供了转换软件之后再提供它)机器的实际输出,而不是指每台机器用以产生这输出所花的时间。如果任何一台机器在任何阶段用光了用于计算的存储空间,我还允许其调用一些(在原则上无限制的)外部空白空间的“粗纸”供应,可采用磁带、磁盘、磁鼓或任何别的什么。事实上,对机器A和B执行同一任务所需时间的不同值得严肃地加以考虑。例如,也许有这种情形,A在执行一特别任务时比B快1000倍;也许还有这种情形,同样的一对机器,存在某一其他任务,这时B比A快1000倍。此外,这里计时可以极大地依赖于所用的转换软件的选取。这是非常“原则的”讨论,人们不甚关心诸如在一段合理的时间内完成他的计算的实际的事体。我将在下一章把在这里提到的概念弄得更精确些:机器A和B是所谓通用图灵机的实例。

实际上,所有现代通用的电脑都是通用图灵机。这样,在上述的意义上,所有通用的电脑都是互相等效的:假使我们不关心运算的速度和存储空间的可能限制,则它们之间的差别可完全地被包摄到软件中去。的确,现代技术已经使得电脑如此快速地运行,并具有如此庞大的储存能力,对于大多数“日常”目的,这些实际考虑对于通常的需求不构成任何严重的限制 ,所以这种电脑之间有效的理论上的等价也可认为是在实践的水平上的。技术仿佛已经把有关理想化的计算仪器的纯学术讨论转变或直接影响我们生活的事体。

就我所知,作为强AI哲学基础的最重要因素之一是在物理计算仪器之间的这种等价。硬件似乎相对地不重要(也许甚至完全不重要),而软件也就是程序或者算法被认为是要紧的因素。然而,我似乎觉得还有从物理的方向来的更多的重要的基础因素。我将指出这些因素是什么。

是什么东西赋予个别人其单独的认同性呢?在一定的程度上,是否正是构成他身体的原子呢?他的认同性是否依赖于构成这些原子的电子、质子和其他粒子的特殊选择呢?至少有两种理由说明不可能是这样子的。首先,任何活人身体的物质都处于连续代换的状态中。这尤其适用于一个人脑的细胞中,尽管在出生后没有产生新的脑细胞的这一事实。在每一活细胞(包括每一个脑细胞)中的绝大多数原子以及实际上我们身体的整个物质从诞生以来已被代换了许多回。

第二个理由来自于量子物理。而且极富讽刺意味的是,严格地讲,它和第一个理由相冲突!按照量子力学(我们在第6章还要进一步地讨论),任意两个电子必须是完全等同的,这同样地适合于任意两个质子以及任一特殊种类的两个粒子。这不仅仅说没有办法把两个粒子区分开,其陈述比这还要强许多。如果一个人脑中的一个电子和一块砖头中的一个电子相互交换,则系统的态和它过去的态不仅不能区分,而且完全相同 [11] 。这同样适用于质子和任何其他种类的粒子,整个原子、分子等。如果一个人的整个物质内容和他房子里的砖头的相应的粒子相交换,那么在某种强的意义上来讲,没有发生过任何事情。把人和他的房子区分开来的是把这些成分安置的模式,而不是这些成分本身的个性。

在与量子力学无关的日常水平上也许存在一个相似的情景。这就是由于电子技术使得我能以文字处理机来打字。当我写到这里时感到特别明显。如果我必须改变一个词,譬如说把“make”改成“made”,我只要简单地把“k”用“d”来取代即可以,或者我可重打整个词。如果我重打,新的“m”是否和旧的“m”一样,或者我是否用同样的字母来取代了它呢?“e”的情形又如何呢?即使如果我简单地用“d”来取代“k”,而不重打这个词,存在刚好在“k”消失和“d”出现从而填上空隙之间的一个瞬息,随着接续的每一字母(包括“e”)的安置,存在(或者至少有时存在)重排这页之后的波动。然后当“d”插进去时又再次重新计算。(呵,现代没有思想的计算是多么的“卑贱”!)不管怎么样,在我面前屏幕上看到的所有字母,随着它的每1秒钟的60次扫描,仅仅是一个电子束的轨迹的缝隙。如果我取走了任一字母并用同一字母取代之,在代换后的情形是否一样,或仅仅和原先的不可区分?认为第二种观点(也就是“仅仅是不可区分的”)可以和第一种观点(也就是“同样”)相区分似乎是痴人说梦。至少在字母不变时可以合理地说这情形是同样的。而等同粒子的量子力学的情形也是如此。把一个粒子用另一个等同粒子取代时量子态不受丝毫影响。这情形的确被认为和以前的是同样的。(然而,正如我们在第6章将要看到的,这一差异在量子力学的框架中实际上不是微不足道的。)

上述关于在一个人体中连续地置换原子的评论,是在经典的而不是量子物理的框架下进行的。它是在似乎坚持每一原子的个性有意义的情形下措辞的。经典物理在这一描述的水平上把原子当作单独物体的近似是足够好的,我们不会错得太离谱。假设原子在运动时和它们等同的伙伴分离得相当开,那么由于在事实上每一个原子的轨道是连续的,以致人们想象能够看守住每一个并可以协调地认为它们坚持各自的本体。从量子力学的观点看,原子的个性只不过是一种方便的说法,但是在刚才考虑的水平上它是一个足够协调的描述。

让我们接受这种观点,一个人的个性和人们想赋予他的物质成分的任何个性无关。相反地,在某种意义上,它必须和那些成分的形态,即我们所说的空间或空间——时间中的形态有关。(后面还要更多地讲到。)但是强AI的支持者走得比这更远。如果这样一种形态的信息内容能被翻译成另一种可能恢复成原状的形式,那么他们就能够宣称,这个人的个性必须维持不动。这正如同我刚打的字母序列和我现在于我的文字处理机屏幕上看到的展示是一样的。如果我把它们从屏幕上移开,它们被编码成某种微小的电荷位移的形式,处在一种和我刚才打印的字母在几何上毫无类似性的某种形态。然而,我可在任一时刻把它们移回到屏幕上去,它们在那里正如同没有进行过任何变换一样。如果我选择把我才写下的存起来,那么我可以把字母序列的信息转移到一个以后我可取走的磁盘的磁化形态上去,然后关掉机器就中和了在它上面的所有(有关的)微小电荷位移。第二天,我可重新插入我的磁盘,复原小电荷位移并在屏幕上正如没有发生过任何事一样重现字母序列。这对于强AI支持者而言是“清楚的”,一个人的个性可用同样的方式处理。所以这些人会宣称,正如在我的显示屏幕上的字母序列一样,如果一个人的身体形状被翻译成完全不同的某种东西,譬如说一块磁铁的磁场,他的个性一点也没损失,实际上对他根本没有发生过什么。他们甚至会宣称,当一个人的“信息”处于这不同的形式时,他的意识知觉继续存留。一个“人的知觉”在这种观点中实际被当成一段软件,而他作为一个物质的人的特殊的显现则被认为是通过他头脑和身体硬件对这软件的运算。

作这些断言的原因仿佛是,不管硬件采取何种物质形式,例如某种电子仪器,人们总可以“问”软件问题(以图灵检验的形式),并假定该硬件能令人满意地进行计算以获得这些问题的答案。这些答案会和一个人处于正常状态时所回答的相同。(“今天上午你感觉如何?”“哦,相当好,谢谢,尽管我有一点讨厌的头痛。”“你对你的个人认同感和别的什么有点不对头的地方吧?”“不,你为什么这样讲?这似乎是很古怪的问题。”“那么你感到你正是昨天的那个同一的你吧?”“当然是这样!”)

科学幻想的超距运送机 [12] 是一种被频繁讨论的观念。这是作为譬如讲从一颗行星到另一颗行星的“运送”手段。所有的讨论都是关心它是否能在实际上做到这样。旅行者不用空间飞船以“正常”方式运送其身体,而是从头到脚地被扫描,他身体的每一原子和电子的准确位置和完整的特征都被全部细致地记录下来。然后所有这些信息由一电磁信号束(以光速)发射到目的地。在目的地把这信息收集到,并作为装配旅行者以及他所有记忆、企图、希望和最内心的感情的复本的指导书。至少这就是所期望的,因为他的头脑状态的每一细节都被完全忠实地记录、传送和重造了。假如这个机制能成功,则旅行者的原版可被“安全地”毁掉。显然的问题是:这真的是从一处到另一处旅行的一种方法吗?或者它是否仅仅是制造一个复本而把原先的人杀死?假定这种方法在这框架中被证明是完全可靠的,你会准备用这种方法吗?如果超距运送不是旅行的话,那么在原则上它和从一个房间走到另一个房间有何不同?在后者的情形,难道不是一个时刻的原子简单地为下一时刻的原子提供定位的信息吗?我们毕竟看到了,维持任何特殊原子的等同性都是没有任何意义的。原子的任何运动模式难道不就是构成从一处到另一处传播的信息的波吗?在描述从一个房间随便遛达到另一房间的我们旅行者的波动传播和发生在超距运送机中的有什么本质的区别吗?

假定远距运送的确“可行”,那就是说,在一遥远行星的旅行者的复本中他自身的“知觉”确实被重新唤醒(假设这是一个具有真正意义的问题)。如果该旅行者的原版没有如这个游戏所需求的那样被毁坏,将会发生什么呢?他的“知觉”是否会同时处于两个地方呢?(当你听到如下一段话时想象着将会如何反应:“哦,亲爱的,在把你放到超距运送机前给你的药已被消耗完了。是吗?那是有点不幸,但是没有关系。无论如何,你将高兴地听到,另一个你,呃,我是说真正的你已经安全地到达了金星。这样,我们可以把你,哦,我指的是多余的版本,安置在这儿。当然这是完全不痛苦的。”)这种情景有一点佯谬的风味。物理学的定律中是否有任何在原则上使得超距运送不可能的东西呢?另一方面,也许在原则上没有东西反对以这种手段运送一个人以及他的意识,但是所涉及的“复制”过程会不可避免地消灭原来的那个人吗?尽管这些考虑显得很奇异,我相信从它们也许可得到某些关于意识和个性的物理性质的东西。我相信它们提供了表示量子力学在理解精神现象的某种根本作用的指针。但是我更往前多跨一步。我们只有在第6章(参见第325页)考察了量子理论的结构后,才能回到这些事体上来。

让我们看看强AI的观点与远距运送问题有什么关联。我们设想,在这两个行星之间的某处有一转换站,在这里把信息暂时存储然后再传送到最终的目的地。为了方便起见,这信息不用人的而是用某种磁或电的仪器的方式存储。该旅行者的“知觉”是否会在和这一仪器的相关联中呈现呢?强AI的支持者愿使我们相信,事情必须如此。他们说,我们想问该旅行者的任何问题,在原则上都可由此仪器答复,“只要”对他的头脑的适当活动建立模拟就可以了。该仪器会拥有所有必需的信息,而余下的只不过是计算的问题。由于仪器会完全如同旅行者一样地回答问题,那么(图灵检验!)它就是该旅行者。这完全回到了强AI的论点,在考虑精神现象时硬件根本不重要。我觉得这一论点是未被证实的。它是基于如下的假设,即头脑(或精神)实际上是一台数字电脑。他们假想,当一个人思维时并没有引起特别的物理现象,也许头脑真正需要具备特殊的物理的(生物的、化学的)结构。

人们无疑地会(从强AI观点)争论道,所做的仅有的假设是,任何必须涉及的特殊物理现象的效应都可由数字电脑精密地仿照。我可以相当肯定,大多数物理学家会论证道,在我们现在对物理理解的基础上作这样的假设是非常自然的。我将在后面的章节提出我自己持相反观点的原因(我在那里还需要把话题引到为何我相信甚至不必作任何假定)。但是,在此刻我们暂且接受这一(普遍的)观点,即所有相关的物理总能由数字计算来仿照。那么(除了时间和计算空间的问题外)这唯一真正的假设是一个“行为主义”的问题,即如果某物全然像一个意识的知觉的本体那样地行为,那么人们还应该坚持说它“感觉”到它自己是那一个本体。

强AI观点认为,在头脑运行中实际上被涉及的任何“仅仅”是作为硬件问题的物理,必须能用合适的转换软件来模拟。如果我们接受这个行为主义的观点,那么问题就归到普适图灵机的等价,以及任何算法可的确由这种机器执行的事实,还有头脑按照某类算法动作行动的假设。现在到了我要更明白地解释这些迷人的重要概念的时候了。 5xU8cZogEM1ka9SfzPjSw92hNOxPRZaTVwtT1pSEpeEzl6VDKR8o/BxrU9+O00CX

点击中间区域
呼出菜单
上一章
目录
下一章
×

打开