我建议大家考虑一下这个问题:“机器能思考吗?”我们应该先从定义“机器”和“思考”这两个词的意思开始。定义可能被要求尽量地反映这两个词的常规用法,但是这种态度是危险的。如果我们通过考察“机器”和“思考”这两个词的日常用法来发现其含义,那我们就难逃这一结论:“机器能思考么”这一问题的意义和答案要通过盖洛普民调这样的统计调查来得出。但这是荒谬的。因此,我不试图给出这样一个定义,而是用另一个问题来代替原来的问题,这个问题和原问题紧密相关,而且表述的语言相对不那么模糊。
这个新问题可以通过一个游戏来描述,我们称之为“模仿游戏”。玩这个游戏需要三个人,一个男人(A)、一个女人(B)和一个男女皆可的询问者(C)。询问者待在一间屋子里,与另两人分开。询问者在游戏中的目标是确定另两人孰男孰女。询问者只知道他们的标签X和Y,游戏结束时,他要说出“X是A,Y是B”或“X是B,Y是A”。询问者可以像这样向A和B提问:
C: 可以请X告诉我他/她头发的长度吗?
现在假设X其实是A。A必须回答问题。A在游戏中的目标是努力使C做出错误的身份识别。因此他的回答可能是:“我是齐耳发,最长的一缕大概9英寸。”
为了不让询问者得到声音的帮助,答案应该写下来,打字打出来更好。理想的安排是两间屋子可以通过电传打字机通信。或者也可以通过中间人传递问题和答案。第三游戏者(B)的目标则是帮助询问者。她的最优策略或许就是给出真心实意的答案。她可以在答案中加入“我是那个女的,别听他的”这样的内容。不过这也没什么用,因为男人也能做出类似的表示。
现在我们要问问题了:“如果在这个游戏中,用一个机器来担任A的角色,会发生什么?”如果这样玩游戏的话,与和一男一女两个人来玩相比,询问者判断错误的次数是否一样多?这些问题取代了原先的问题“机器能思考吗”。
人们除了会问“这个新型问题的答案是什么”,还可能会问“这个新问题值得探讨么”。我们不多纠缠,索性先探讨这个新问题,就此打住无穷后退。
这个新问题有一个优点:它在人的身体能力和智识能力之间画了一条相当清晰的界线。还没有哪位工程师或化学家敢说他能造出一种与人类皮肤别无二致的材料来。未来某个时候这件事或许是可能的,但即使假设这一发明可行,我们也觉得,努力用这种人造肌肤包装出更像人的“思考机器”,没有什么意义。我们设置问题的形式把这一点反映在了问题的条件中:询问者既不能看到摸到其他游戏者,也不能听到他们的声音。下面的问答示例或许会显示出我们所提标准的其他一些优点:
问:请给我写一首十四行诗,以福斯桥为主题。
答:放过我吧。我从来就不会写诗。
问:34957加70764等于多少。
答:(停顿约30秒后给出一个答案)105621。
问:你下象棋么?
答:下。
问:我还有个王在我的王1位(K1),没别的子了。你只有王在你的K6,车在你的R1。现在该你走棋,你怎么走?
答:(停顿15秒后)车进R8,将军。
这种问答方法似乎适用于引入任何一种人类活动的领域,只要我们想聊它。我们不想因为机器在选美比赛中表现不佳就对它施加惩罚,就像不想因为一个人和飞机比速度输了就罚他一样。我们设定的游戏条件让这些无力之处无关紧要了。只要“证人”自己认为合适,就可以随心所欲地吹嘘自己的魅力、力量或英雄气概,而询问者不能要求他们做实际的展示。
这个游戏或许会遭到批评,理由是条件对机器太过不利。如果一个人试图装成一个机器,他肯定会表现得很糟糕,马上就会因为计算缓慢和不准确而暴露。这不也很可能吗:机器做了一些理应被描述为思考的事情,只是与人的做法非常不同?这个反对意见非常有力,不过至少我们可以说,如果我们把机器设计好,让它能把这个模仿游戏玩得令人满意,就用不着担心这个反对意见。
有人可能会强烈主张,机器玩“模仿游戏”时的最优策略或许不是模仿人的行为。这是有可能的,但我认为这不可能有多大效果。不管怎样,本文并不打算研究这个游戏的理论,我们假定机器的最优策略是努力提供那些人也会自然而然给出的答案。
只有我们明确“机器”一词的含义,我们之前提出的问题才会比较确切。自然,我们希望制造机器时允许使用一切工程技术。我们也希望允许有这种可能:一个或一队工程师能制造出一个管用的机器,但不能对机器的运作方式给出满意的说明,因为他们使用的方法大体上还是实验性的。最后,我们希望把以常见方式生育出来的人从机器中排除出去。要让定义同时满足这三个条件是很难的。例如,有人可能会坚持要这队工程师都是同一个性别,但实际上这也不符合要求,因为我们很可能用单个的人类细胞比如皮肤细胞,培养出一整个的人类个体。这将是生物技术的壮举,值得高度赞扬,但是我们并不想把这算作“建造思考机器”的例子。这促使我们放弃允许使用一切技术的这项要求。我们更愿意放弃这项要求,是考虑到了事实上当前人们对“思考机器”的兴趣是由一种特定类型的机器唤起的,这种机器通常称为“电子计算机”或“数字计算机”。有鉴于此,我们只允许数字计算机参加我们的游戏……
这种数字计算机的特殊性,在于它能够模仿任何一台离散机(discrete machine),因此我们可以说它是 通用机 (universal machine)。由于存在具备此种特性的机器,就产生了一个重要后果,那就是如果不考虑速度,就不必设计各种不同的新机器来执行各种不同的计算过程。所有这些过程都可以由一台数字计算机来完成,只要给每种情况编制适当的程序就行。由此可见,某种意义上说,所有数字计算机都是一样的。
现在我们或许认为前提已经搞清楚了,已经可以开始争论我们的问题“机器能思考吗”……我们不能完全放弃这个问题的最初形式,因为用新型问题代替原来的是否合适,对此人们仍会有不同意见,在二者怎样关联的问题上,至少我们必须听听别人的意见。
如果我先来解释一下自己在这个问题上的意见,读者可能会觉得简单一点。让我们先来考虑一下更准确的问题形式。我认为,大约50年之内计算机的存储能力就能达到10 9 ,我们可以给它们编程,让它们足以玩好模仿游戏,让一个平均水平的询问者在提问5分钟之后做出正确身份识别的可能性不超过70%。我认为最初形式的问题“机器能思考吗”毫无意义,不值得讨论。不过我也相信,到本世纪末,词语的用法和一般受教育者的意见都会大有改变,变到人们可以谈论机器在思考而不会自相矛盾。我还认为,掩盖这些想法毫无裨益。流行的看法是,科学家智慧、冷酷、坚决地从一项确凿无疑的事实前进到另一项,决不受任何未经证明的猜想的影响,这是错误的。假如能分清哪些是已经证明的事实,哪些是猜想,猜想就不会有什么害处。猜想非常重要,因为它们能指出有用的研究方向。
现在我开始考虑与我的观点相反的意见。
1.神学方面的反对意见。 思考是人之不朽灵魂的一种功能。上帝赋予了男男女女每个人一个不朽的灵魂,但没有赋予其他动物或机器。因此动物和机器不能思考。
我丝毫不能接受这一观点,但我会试着用神学的语言来回答。我认为如果把动物和人分在同一类里面,这一观点会更有说服力,因为在我看来,典型生物和非生物之间的差别要比人和其他动物之间的差别大得多。如果我们考虑一下这种正统观点对其他宗教团体的成员来说意味着什么,其武断性就更一目了然了。基督徒对其他宗教认为妇女没有灵魂这一观点有什么看法?不过,我们暂且不管这一点,先回到主题上来。对我来说,上述论点意味着上帝这位全能者的全能要受到严重的限制。我承认,有些事上帝也做不到,例如让1等于2,但是难道我们不是应该相信,如果上帝认为合适,他就可以赋予一头大象灵魂吗?我们或许可以期望,上帝施展威力的方式只是制造一个突变,让大象的脑有适当改进,可以满足灵魂的需要。完全类似的论证也可以用于机器的情况。当然似乎还是有所不同,因为后者更难接受。但这其实只不过意味着我们以为上帝不太可能认为机器这样的环境适合赋予灵魂。这里的环境问题我们将在后文讨论。在试图建造这种机器时,我们无礼地篡夺上帝创造灵魂的权力,程度应该不会比生育孩子时更甚,反倒是这两种情况下,我们都是上帝实现其意志的工具,是为上帝所创造的灵魂提供居所。
不过这些只是玄思。我不太买账神学的论辩,无论它们是用来支持什么样的观点。过去,此类论辩常常不令人满意。伽利略时代就有人辩称,《圣经》的经文“日头在天当中停住……不急速下落,约有一日之久”(《约书亚记》10:13)和“将地立在根基上,使地永不动摇”(《诗篇》104:5)足以驳斥哥白尼的理论。就我们目前拥有的知识而言,这种论辩看来是无效的。当然没有这些知识的时候,这种论辩的效果就大不相同了。
2.“头埋沙里”的鸵鸟式反对意见。 “机器思考的后果太可怕了。让我们希望并相信它们不会思考吧。”
这种论调很少表达得如此这般坦率。不过我们多数人在思考这一问题时都会受其影响。我们愿意相信人以某种微妙的方式优于其他造物。如果能证明人 必然 高出一等,那就最好不过,因为这样人就不会有失去统治地位的危险了。神学论辩之所以流行,显然与这种感情有关。这种感情在知识分子当中相当强烈,因为他们比其他人更重视思考的力量,而且更倾向于将自己对人之优越性的信念建立在这种力量之上。
我不认为这一论调足够坚实、值得一驳。可能给持论者一点慰藉更合适:这种优越性或许该去灵魂转世轮回中寻找。
3.数学方面的反对意见。 数理逻辑中有许多结论,可以用来阐明离散状态机是能力有限的。这些结论中最著名的一个叫“哥德尔定理”,这一定理表明,在任何足够强的逻辑系统中,除非系统本身不一致,否则总能构造出既不能证明为真也不能证明为假的命题。邱奇、克莱尼、罗瑟和图灵也得出了另外一些在某些方面与之相似的结论。考虑后一种结论是最方便的,因为它直接指向机器,而其他结论只能用作相对间接的论证:比如如果要使用哥德尔定理,我们还需要有一些用机器来描述逻辑系统和用逻辑系统来描述机器的方法。这里的结论指涉这样一种机器:一台本质上存储容量无限的数字计算机。这一结论陈说了,有些事是这样一台机器做不到的。如果组装这么一台机器来回答类似模仿游戏中的问题,那么就会有一些问题,无论给多长时间,机器都是要么只能回答错误,要么完全无法回答。当然可能会有许多这样的问题,还可能会有问题一台机器无法回答,但另一台机器却能回答得令人满意。当然,我们现在假设这些问题都是能用“是”或“否”来回答的类型,而不是“你认为毕加索怎么样”这样的问题。我们知道机器一定会失败的问题是这种类型的:“考虑具有如下特点的机器……这台机器会对某个问题答‘是’吗?”省略号部分可以替换成对某些标准类型机器的描述……如果所描述的机器与接受询问的机器之间有某些相对简单的关联,那我们就能表明,答案不是错的,就是没有。这是数学上的结论:它论证说,这证明了有些事机器无力做到,而人的智识则不受此种限制。
对这一论证的简短回答是,虽然它证明了任何特定机器的能力都有限度,但它却没有任何证据说人的智识就不受此限。不过,我不认为这一观点如此轻易就能驳斥。只要其中一台机器遇到一个合适的关键问题并给出一个确定的回答,我们就会知道这个回答一定是错的,这给了我们一种优越感。这种优越感是虚幻的吗?它无疑是如假包换的,不过我不觉得应该给这件事赋予太多意义。我们自己也经常答错问题,这时看到机器一方会犯错的证据而兴高采烈,就实在没什么正当性。此外,我们只有对某一台机器取得了小小的胜利后,才会在这种情况、这种人机关系中体会到这种优越感。我们绝不可能同时胜过所有机器。因此简言之,可能有人比某台特定的机器聪明,但也可能有其他机器比这些人更聪明,如此等等。
我认为,坚持数学论证的人大多愿意接受把模仿游戏作为讨论的基础。而相信前两种反对意见的人大概对任何判断标准都不感兴趣。
4.基于意识的论证。 这一论证在1949年杰斐逊教授的利斯特演说中表达得很清楚,我从中摘引一段话:“除非机器能因它所感受到的思想和情绪,而不是随机落下的符号(symbol),写出一首十四行诗或协奏曲,我们才会同意机器等价于脑——它不仅是写了诗或曲子,而且知道自己写了。没有机器能感受到(不只是发出人工信号这么简单)成功带来的喜悦,阀门熔化带来的悲伤,恭维带来的温暖,犯错带来的痛苦,性带来的诱惑,求而不得带来的愤怒或沮丧。” [1]
这一论证似乎否认了我们测试的有效性。按照这一观点的最极端形式,要确定机器在思考的唯一方法就是 成为 机器并且感到自己在思考。然后他可以向全世界描述这些感受,不过当然,没人能充分表明自己说的是真的从而引起任何注意。那类似,根据这一观点,知道一个 人 在思考的唯一方法就是成为那个人。这其实是唯我论的观点。这或许是最合逻辑的观点,但会让思想交流变得十分困难。A可能认为“A在思考,B不在思考”,而B则认为“B在思考,A不在思考”。我们通常不在这个问题上争论不休,而是设个君子协定,那就是大家都在思考。
我敢肯定杰斐逊教授不愿意接受这种极端的唯我论观点。或许他很愿意把模仿游戏当作一种考试。在实践中,我们经常把这种游戏(省略B的角色)当作“口试”(viva voce),来看看一个人是真正理解了,还是在“鹦鹉学舌”。让我们来看看这样一个口试片段:
询问者:你的十四行诗,第一句是“我能否将你比作夏日”,如果换成“春日”是不是一样,甚至更好?
证人:这样就不合格律了。
询:“冬日”怎么样?这样也合律。
证:是的,但是没人愿意被比作冬日。
询:你会觉得匹克威克先生让你想起圣诞节吗?
证:有一点吧。
询:而圣诞节是在冬日,我不认为匹克威克先生会介意这样作比。
证:你不是认真的吧。冬日的意思是一个平常的冬日,而不是像圣诞节这样一个特殊的日子。 [2]
等等吧。如果写十四行诗的机器能在口试中这样回答问题,杰斐逊教授会怎么说呢?我不知道他是不是会认为机器“只是发出人工信号”来形成答案,但如果机器的回答像上文一样令人满意且能一直进行下去,我不认为他会说它“这么简单”;我认为这个短语指的是这样的设备:机器里有某人读十四行诗的录音,还可以适时地一次次开启录音。
简言之,我认为,多数支持意识论证的人都能被说服放弃这一观点,而不用被迫接受唯我论立场。然后他们大概就愿意接受我们的测试了。
我不希望给人留下这样的印象,即我认为意识没有任何神秘之处。比如说,如果我们试图找出意识的确定所在,就会出现悖论。但我不认为我们必须先解决这些问题才能回答本文所关心的问题。
5.基于“机器无能”的论证。 这些论证的形式都是:“我承认你能让机器做到你提到的所有事,但你永远也不能让一台机器做到X。”为此,他们建议X要有许多特征。我举几个例子:
善良、多谋、美丽、友好……有进取心、有幽默感、明辨是非、会犯错误……会坠入情网、爱吃草莓拌奶油……让人爱上自己、从经验中学习……正确使用词汇、成为自己的思考对象……像人一样行为多样、做真正新鲜的事……
这些表述通常都没有证据支持。我认为这些大多建立在科学归纳的原则之上。一个人在一生中见到了成千上万台机器,从自己的所见所闻中得出了一些普遍结论:它们很丑;设计用途有限,只要目的稍有不同就没法使用;任何一台都没有多少行为多样性,等等。他很自然地得出结论说,这些都是机器必然具有的普遍特征。这些能力限制当中有许多都与多数机器的存储容量非常小有关。(我设想存储容量的概念会以某种方式扩大到可以覆盖离散状态机以外的机器。我们不需要精确的定义,因为目前的讨论不要求数学上的精确性。)几年前,很少有人听说过数字计算机的时候,如果有人提到其特性但不说明其结构,它们可能会引起许多怀疑。这大概也是由于运用了类似的科学归纳原则。运用这些原则当然很大程度上是无意识的。当一个被火烫过的孩童害怕火,并且表现为躲避火的时候,我就会说他运用了科学归纳法(当然我也可以用许多其他方式来描述他的行为)。人类的行为和习惯似乎并不是十分适合应用科学归纳法的素材。要得到可靠的结果,就必须调查非常广大范围的时空。否则我们就会(像大多数讲英语的儿童那样)认为,人人都讲英语,去学法语简直太傻了。
不过,我们要对上述的许多机器不能之事做一些专门的评论。读者可能会认为,不能享受草莓拌奶油的美味没什么所谓。或许可以制造一台能够享受这种美味的机器,不过任何这种尝试肯定都很蠢。这种“无能”的意义在于它会造成其他几种“无能”,比如人和机器之间很难产生同一人类种族之间的那种友情。
“机器不会犯错误”这种断言似乎很奇怪。人们不禁要反驳说:“这有什么不好的吗?”不过,让我们抱着同情的态度看一看这句话究竟是什么意思。我认为,可以用模仿游戏来解释这一批评。这一批评声称,询问者要区分人和机器,只要给他们出许多算术题就行了。机器会露馅,因为它做算术题永远正确。对此,回答很简单。机器如果是为玩模仿游戏而编制的程序,就不会试图正确地回答算术题。它会故意算错来误导询问者。这种情况下的机械故障或许会表现为,对计算时应该犯哪种错误做出了不当的决定。但即便是对批评的这种解释,也没有抱足够的同情态度。不过我们不能花篇幅深入探讨这一问题。在我看来,这种批评的问题在于混淆了两种错误,我们可以把它们分别称为“运行错误”和“结果错误”。运行错误是由某些机械或电路故障造成的,导致机器不按设计工作。在哲学讨论中,人们喜欢忽视机器犯这种错误的可能性,仅讨论“抽象机器”。这些抽象机器与其说是物理客体,不如说是数学虚构。那么从定义上,它们就不可能有运行错误。只有在这个意义上,我们才能真正说“机器永不犯错”。而结果错误只发生在机器的输出信号具有某种意义的情况下。例如,机器可能会打出数学等式或英文句子。当机器打出一个假命题时,我们会说机器犯了结果错误。显然我们完全没有理由说机器不会犯这种错。它可以什么别的都不干,只反复打出“0=1”就行了。一个不那么反常的例子是,它可能会有某些方法来通过科学归纳法得出结论,而我们一定能预料到,这种方法有时会带来错误的结果。
有人说,机器不能成为它自己的思考对象,当然,要回答这个问题,我们必须先能证明机器有 某种 思考,而且这思考有 某个 对象。不过,“机器运行所处理的对象”这个表达确实有意义,至少对和它打交道的人来说是有意义的。例如,如果一台机器正在解x 2 -40x-11=0这个方程,人们就不禁会把这个方程描述为机器当时的一部分处理对象。这个意义上,机器无疑能成为它自己的处理对象。它可以用来辅助给它自己编程的过程,还能用来预测改变自身结构的结果。通过观察自身行为的结果,它可以修改自己的程序,以便更有效地实现某些目标。这些在不久的将来就可能实现,并不是乌托邦式的梦想。
有人评论说,机器的行为不可能有多少多样性,这只是在用另一种方式来说机器不可能有多大的存储容量。直到最近,存储容量达到千位数的机器都非常少。
这里我们考虑的批评往往都是变相的意识论证。一般来说,如果我们坚持说机器 能 做其中某件事,并描述机器可能使用的方法,也不会给人留下多深的印象。人们认为这方法(不管是什么,总之一定是机械的)实在是太低级了。请对照上文引用的杰斐逊演说中括号里的那句话。
6.洛夫莱斯夫人的反对意见。 关于巴贝奇分析机,最详细的信息来自洛夫莱斯夫人的笔记。笔记中说:“分析机谈不上能开创什么东西。它能做 一切我们知道如何命令它 去做的事。”(作者本人强调)哈特里引用了这段话,并补充说:“这并不意味着不可能建造出能‘独立思考’的电子设备,或者用生物学的语言来说,人们可以在这种设备中建立一种条件反射,使之成为‘学习’的基础。这在原则上是否有可能,确实是个充满刺激、令人兴奋的问题,是最近的一些科学进展给我们提出了这个问题。不过当时建造或设计的机器似乎并不具备这一特性。” [3]
在这点上我完全同意哈特里的意见。请注意,他并没有断言他所谈到的机器不具有这一特性,而是说,洛夫莱斯夫人看到的证据无法促使她相信它们具有这一特性。那些机器很有可能已经在某种意义上具有了这一特性。我们假设有些离散状态机具有这一特性。分析机是通用的数字计算机,因此,只要有足够的速度和存储容量,在合适的编程条件下,它就能模仿我们所说的机器。伯爵夫人和巴贝奇大概都没有想到这一点。不管怎样,他们没有义务说出所有可能说的东西。
所以整个问题都要在“学习机器”这个标题之下重新考虑。
洛夫莱斯夫人的反对意见还有另一种表述,即机器“永远也做不了什么真正新鲜的事”。或许我们可以用“太阳底下无新事”这句谚语来抵挡一阵。谁能肯定他所做的“开创性工作”就不是他所受教育的产物,或是遵循众所周知的普遍原则的结果?这种反对意见还有个更好点的说法,即机器永远也无法“让我们大吃一惊”。这种说法是更为直接的挑战,可以直接迎战。机器 经常 让我大吃一惊。这主要是因为我没有做足够的计算来确定它们可能会做些什么,或是因为即使我做了计算,也做得匆忙、草率、冒险。或许我会对自己说:“我猜这里的电压应该和那里相同,反正就这么假设吧。”自然,我经常是错的,于是结果就会令我大吃一惊,因为实验做完时我早就把这些假设忘光了。我坦白这些事,可能会授人口实,责备我做事方法不对,不过当我自证惊奇体验时,它们可丝毫没有降低我的可信度。
我不指望这一回答能让批评者住嘴。他可能会说,这种惊奇是由于 我的 某些创造性心理活动,而不是来自机器。这让我们离开了惊奇的话题,又回到了意识论证上。我们必须让这条论证线索结束了,不过或许我们应该注意到,领会某事物的惊奇,需要有许多“创造性的心理活动”,不管令人吃惊的事件是源自人、书本、机器还是别的什么东西。
我认为,机器不会让人吃惊的观点是来自哲学家和数学家们特别容易犯的一个错误。他们假设只要心中出现一个事实,这一事实导致的所有结果都会同时涌入心中。在很多情况下这个假设很有用,但是人们太容易忘记它其实是错的。这种假设的一个自然而然的结果就是会让人们认为从数据和普遍原则中得出结论并没有什么了不起。
7.基于神经系统连续性的论证。 神经系统肯定不是离散状态机。哪怕某一个神经元接收到的某一个神经脉冲的大小信息出了一点小差错,都可能导致输出的神经脉冲的大小出现巨大差异。有人或许会提出,既然如此,我们就不能指望用离散状态机来模仿神经系统的行为。
确实,离散状态机肯定与连续机(continuous machine)不同。但如果我们严格遵循模仿游戏的条件,询问者就无法利用这一差异。如果我们考虑某个别的简单一些的连续机,情况就会更加明了。微分分析机(一种非离散状态机,用于某些类型的计算)就足够了。有些微分分析机能以打字的方式提供答案,因此很适合参加游戏。数字计算机不可能精确预测微分分析机对某个问题的回答,但它有足够能力给出正确类型的答案。比如说,如果要求它给出π值(实际上约等于3.1416),它就会采用一种合理的做法,从3.12、3.13、3.14、3.15、3.16等值中随机选取,分别赋予它们(比如)0.05、0.15、0.55、0.19、0.06的概率。在这样的情况下,询问者很难区别微分分析机和数字计算机。
8.基于人类行为随意性的论证。 我们不可能制定出一套规则,来说明一个人在每种想得出的环境中应该怎么做。比如可能有规则说红灯停绿灯行,但是如果出了故障,红绿灯一起亮,该怎么办?有人或许会决定,最安全的做法是停下来。不过这一决定后面大可带来其他问题。试图制定涵盖各种可能性(即使只是红绿灯方面的可能性)的行动规则,似乎是不可能的。这些我都同意。
由此可以论证,我们无法成为机器。我试着再现这一论证,但恐怕很难做到不偏不倚。这一论证似乎是这样:“如果哪个人有一套明确且有限的、控制自己生活的行动规则,那他就比机器强不到哪里去。但没有这种规则,因此人无法成为机器。”“中项不周延”问题 相当醒目。我不认为该论证就是这么说的,但我认为它用的就是这种逻辑。这个论证可能还混淆了“行动规则”和“行为规律”,从而遮蔽了问题。“行动规则”的意思是“红灯停”之类的命令,我们可以根据这些命令采取行动,并且能够意识到这些命令。“行为规律”的意思是适用于人体的自然律,比如“如果你掐他,他就会叫”。如果我们用“控制他生活的行为规律”来代替引文中的“控制自己生活的行动规则”,中项不周延就不再是不可克服的了。因为我们不仅认为受行为规律的控制意味着成为某种机器(虽然不一定是离散状态机),而且反过来我们也认为成为机器意味着受规律控制。但我们无法轻易说服自己,相信人的行为没有完整的规律,就像没有完整的行动规则一样。就我们所知,找到这种规律的唯一方法就是科学观察,而且我们当然也知道,在任何情况下我们都不能说:“我们已经找够了。没有这样的规律。”
我们可以更有说服力地表明,所有此类说法都难以成立。我们假定,如果这种规律存在,我们肯定能找到。然后假设有一台离散状态机,只要对它进行足够的观察,我们肯定有可能预测它将来的行为,这需要有一段合理的时间,比如说1000年。但事情似乎并非如此。我在曼彻斯特计算机上安装了一个小程序,只用了1000个存储单元,使用这个程序时,只要给机器输入一个16位数字,它就能在2秒内回答另一个数字。我不相信有任何人仅仅通过这些回答就能充分了解这一程序,并能预测对未测值的回答。
9.基于超感知觉的论证。 我假定读者们都很熟悉超感知觉(extrasensory perception,ESP)的概念及其四种表现的含义:心灵感应(telepathy)、透视眼(clairvoyance)、未卜先知(precognition)和意念制动(psychokinesis)。这些令人不安的现象似乎否定了所有通常的科学思想。我们多想拒绝相信它们啊!不幸的是,至少对于心灵感应来说,统计上的证据令人不能不信。我们很难改变自己的想法来接受这些新的事实。一个人一旦接受了这些,就离相信幽灵鬼怪不远了。认为我们的身体运动只遵循已知的物理定律及其他一些尚未发现但总还是类似的规律,这样的想法应首先被去除。
在我看来,ESP这条论证十分有力。有人可能会回应说,许多科学理论尽管与超感知觉有冲突,但在实践中依然是可行的;事实上如果忘了ESP什么的,我们也能进展顺利。这是种毫无作用的安慰,人们会想思维怕就是一种可能与超感知觉有特殊关联的现象。
基于超感知觉的进一步具体论证可能是这样的:“让我们来玩模仿游戏,一个擅长接收心灵感应的人是证人,还有一台数字计算机。询问者会问这样的问题:‘我右手中的扑克牌是什么花色?’该人通过心灵感应或透视眼,在400张扑克牌中答对了130次。而机器只能随机猜测,或许答对了104次,因此询问者做出了正确的身份识别。”这带来了一种有趣的可能性。假设数字计算机中包含一个随机数生成器。那么计算机自然要用它来决定给出什么答案。但是随机数生成器会受到询问者的意念制动能力的影响。或许意念制动会使机器猜对的次数高于概率水平,这样询问者可能仍然无法做出正确的身份识别。另一方面,或许他可以使用透视眼,不用提任何问题就能猜对。有了ESP,一切皆有可能。
如果承认心灵感应,我们的测试就必须更加严格。情况可能类似于询问者在自言自语,两位游戏者中有一位在隔墙偷听。让两位游戏者进入“防心灵感应屋”就能满足所有要求了。
我们对这篇内容非凡、语言清晰的文章的回应大都在下一篇对话里。不过,图灵显然愿意相信,原来超感知觉才是人与人类所造机器的终极区别,我们希望对此做一个简短的评论。如果我们仅从表面词句来理解这一评论,而不是将其当作一个无关的玩笑,可能有人会奇怪于我们的动机。图灵显然相信证明心灵感应的证据非常有力。不过,如果说有关证据在1950年很有力的话,在30年后的今天它并没有更加有力——事实上大体是更弱了。1950年以来有过许多声名狼藉的案例,一些人自称具有这种那种的灵力,还常常得到某些有名望的物理学家的担保。这些物理学家中有些人后来发现自己上当了,撤回了公开支持超感知觉的声明,而下个月他们又赶上了某个新的超自然现象的时髦。不过我们可以放心地说,多数物理学家怀疑任何一种超感知觉的存在,当然多数专门研究心灵的心理学家也是这样。
图灵认为,超自然现象可以依某种方式与完善的科学理论相调和的想法,是“毫无作用的安慰”。我们的观点与他不同。我们怀疑,如果心灵感应、未卜先知、意念制动之类的现象真的存在(而且确乎具有它们通常声称的那些非凡特性),物理学定律就不是只做些 修补 就能容纳它们的了;我们的科学世界观必须来一场大革命,才算对这些现象公平。有人可能会带着跃跃欲试的兴奋盼望这场大革命,但其实带着的感情应该是悲伤和困惑。在那么多的事物上都那么有用的科学怎么会变得这么有问题了呢?从最基本的假设开始重新思考所有的科学,这一挑战将会是一场智识大冒险,不过这么多年来,让我们有必要这么做的证据却始终未能积累起来。
D. R. H.
D. C. D.
[1] 利斯特奖章(Lister Medal)是由英国皇家外科医学院主要颁发给外科医生的殊荣,纪念英国外科医生、消毒之父约瑟夫·利斯特(Joseph Lister,1827-1912)。获奖者在获奖次年会发表演说(oration)。神经外科医生杰弗里·杰斐逊爵士(Sir Geoffrey Jefferson,1886-1961)获1948年利斯特奖章,次年的演说题目是《机器人的心灵》( The Mind of Mechanical Man ),主题是“曼彻斯特1号”(Manchester Mark 1)——最早的电子计算机之一,此演说也是对人工智能可能性的早期论争之一。
[2] “我能否将你比作夏日”是莎士比亚十四行诗第18首,原文为Shall I compare thee to a summer's day 。因莎士比亚十四行诗的格律是五音步短长格,-mer的位置需要一个弱音节,改成 spring 会出律,而 winter 合律。匹克威克先生(Mr. Pickwick)是狄更斯小说《匹克威克外传》的主人公,小说的第28章“有关愉快的圣诞节”营造了典型圣诞场景,令人印象深刻。另见本书第184页。
[3] 巴贝奇分析机(Analytical Engine)是英国数学家兼工程师查尔斯·巴贝奇(Charles Babbage,1791-1871)在1837年提出的一种机械通用计算机。该机器并未真正制造,但设计逻辑先进,堪视为百年后电子通用计算机的先驱。洛夫莱斯伯爵夫人(Lady / Countess of Lovelace,1815-1852)这位数学爱好者的代表作即是关于巴贝奇分析机的“笔记”( Notes ),图灵这里称之为“实录”(memoir)。她将其补注在对某位意大利工程师关于分析机之文的翻译中,其中尝试了为分析机编制算法,有争议地被认为是史上第一个计算机程序。她的另一个身份是诗人拜伦的女儿。哈特里(Douglas Hartree,1897-1958)则是把后文的“微分分析机”(differential analyzer)从麻省理工学院(MIT)引入英国的人。他是英国的数学家和物理学家。数学方面他知名于对数值分析的发展,物理方面则有以之命名的“哈特里能力单位制”。