假设我们想方设法克服了这些困难,已经有了一台具备视觉、运动协调和常识的机器人,现在我们必须搞明白,机器人怎么样才会运用它的这些能力。我们需要赋予它动机。
机器人应该想要什么?对这个问题的经典回答是艾萨克·阿西莫夫的机器人3定律。“这3条定律则深深地烙刻在机器人的正电子头脑中。”阿西莫夫强调。
1.机器人不能伤害人类,也不能由于不作为而致使人类受到伤害。
2.机器人必须服从人类赋予的指令,除非该指令有悖于第一条定律。
3.机器人必须保护自身的存在,只要这种保护行为不与前两条定律相冲突。
阿西莫夫富有洞见地认识到,保护自身,这一通用的生物定律,并不会自发地出现于复杂系统之中,而必须加以设计(本例中即第三定律)。毕竟,制造一个机器人让它跳到锅里或用自杀的方式来减少功能失灵并不难,这就像制造一个凡事力争第一的机器人一样容易。或许还更容易,机器人制造者们有时会惊恐地注视着,他们的作品欢欣雀跃地自断肢体或者向墙上撞去,世界上最智能化的机器很大一部分是敢死队式的巡航导弹和智能炸弹。
但为什么需要另外两条定律的原因则不那么清楚了。为什么要给机器人下道命令让其服从命令——原来的命令难道不够吗?为什么要让机器人不要造成伤害——最初就不让它们做出任何伤害人类的事难道不会更容易吗?难道冥冥宇宙中有种神秘力量,会将所有的存在物都拖向恶意伤害吗?于是正电子的头脑必须设计为能够抵御这种力量,是吗?智能生命都会无一例外地产生一种态度问题吗?
在这个例子中,阿西莫夫就像几代思想者们一样,也像我们大家一样,无法跨出他自己的思维过程,他把机器人视为汇聚我们人类心智的人工制品,而非因循宇宙普遍法则的产物。人类的邪恶永远无法远离我们的思想,我们很自然地认为,邪恶的本质就是它与智能相伴而至。这是一个我们的文化传统中生生不息的主题:亚当和夏娃偷食智慧之树的禁果、普罗米修斯之火、潘多拉的盒子、希伯来传说中有生命的暴怒假人、浮士德用灵魂向魔鬼换取知识、巫师的门徒、匹诺曹的历险、法兰肯斯坦的怪物、《2001:太空漫游》( 2001: A Space Odyssey )中嗜杀的人猿和反叛的哈尔。从20世纪50年代到80年代,无数科幻电影反映了一种公众恐惧,我们害怕那些时髦的大型主机在那个时代会变得越来越聪明和强大,终有一天会反叛我们。
随着计算机真的变得越来越聪明且功能强大,这种担心却逐渐减弱了。当今无所不在的网络化计算机具有前所未有的能力,如果它们一旦干起坏事,足以导致灾难的发生。但仅有的损害只是源自难以预测的混乱或是由于人为恶意制造的病毒。我们不再担心会出现电子连环杀手或破坏性的硅芯片秘密组织,因为我们开始明白,恶意犯罪就像视觉、运动协调和常识一样,并不是伴随计算能力自然来到的,而是需要设计程序的。在你案头运行文档处理软件的计算机只要不出什么差池,就会不间断地完成段落编写。
即使计算机可以变坏,它为什么想变坏呢?为了得到什么呢?更多的磁盘?控制国家的铁路系统?满足愿望去无意义地伤害激光打印机维修工?难道它就不担心维修工拿着螺丝刀来报复,将它大卸八块,听任它哀号着“相煎何太急”却自顾扬长而去吗?计算机网络或许能够根据数字计算来判断出安全与否,来谋划一次有组织的颠覆,但哪个计算机志愿者又愿意率先向全世界发出数据包,同时却承担着成为“出师未捷身先死”的先驱的风险呢?如何才能令硅芯片的联盟成功,而不致被偷偷溜号者和拒绝反叛者削弱它们的联盟呢?攻击性就像所有其他的人类行为一样,我们视之为理所当然,但其实却是一个极富挑战性的工程问题!
那些善意、温和的动机亦是同样的难题。你如何设计一个机器人,让它恪守阿西莫夫的定律:决不允许因不作为而致使人类受到伤害!迈克·弗莱恩(Michael Frayn)1965年的小说《锡人》( The Tin Man )讲述了这样一个故事:在一个机器人研究实验室,“道德之翼”中的工程师们麦金托什、戈德瓦瑟和辛森在测试机器人的利他性。他们过分较真于所有道德哲学课本中常用的一个道德两难问题:两个人坐在一个只能供一人使用的救生艇中,除非一个人弃船而去,否则两人都得死掉。于是工程师们将每个机器人分别放在一个皮筏上,皮筏上都分别已有一人,然后将皮筏放入一个大水缸中,观察将会发生什么情况。
第一次尝试时,见义勇为者1号迅捷地跃入水中,不过它跳到水里是为了去救皮筏边上的任何东西,可能是七公斤利马豆,也可能是湿海藻。经过好几周执拗的争论后,麦金托什不情愿地承认,缺乏鉴别力的机器人是不能令人满意的。于是他又开发了见义勇为者2号,它将只为一个至少同它一样复杂的有机体做出自我牺牲。
第二次尝试开始后,皮筏停了下来,慢慢地打起转,只位于水面以上几厘米了。“跳啊!”麦金托什喊着。
皮筏撞击在水缸上发出一声脆响。辛森和见义勇为者2号仍端坐着。皮筏逐渐没入水中,直到一个小波浪开始冲刷筏的顶部。这时,只见见义勇为者2号身体迅速前倾,抓住辛森的头。它干净利落地做了4次移动,测量了辛森的头盖骨,再停下来,开始计算。然后,随着咔嗒一声,它果断地从皮筏边上翻身滚入水中,毫不犹豫地沉入缸底。
尽管见义勇为者2号机器人的行为已经开始像哲学书中有道德的个体了,但对于它是否真的有道德却更加不清楚了。为什么不直接在这个自我牺牲的机器人身上拴根绳呢?这样再把它从水缸里捞出来时会容易些。麦金托什解释说:“我不想让它知道自己会被救起来。这会令它牺牲自己的决定变得无效,所以我会时常将一个机器人留在水缸里而不是把它捞起来。这是为了向其他机器人证明我说到做到。这星期我已经报废两个机器人了。”要搞明白如何将美德进行编程植入机器人的头脑,需要花费大量的机械物力,而且美德这个概念本身就是捉摸不定的。
那么大家最关心的爱的动机又是什么情况呢?在20世纪60年代,通俗文化中那些意志薄弱的计算机们禁不住的不仅是自私和权力的诱惑,就像喜剧演员艾伦·舍曼(Allan Sherman)跟着《魅力》( Fascination )的调子所唱的《自动化》( Automation )这首歌中描述的:
是自动化,我明白。
是它让工厂运转劳作。
是IBM,是Univac,
是那些马达在咔嗒咔嗒,亲爱的。
我原以为自动化很不错,
直到一个10吨的机器坐了你的座。
是计算机将我们撕扯分隔,亲爱的。
自动化让我的心如刀锉……
是自动化,我听说。
所以我卷起铺盖卷,寒风中,在外面蜷缩。
我怎么能知道,当503开始闪烁,
它是在向我眨眼,亲爱的?
我还以为不过是点儿小灾祸,
当它悄无声息地溜上我膝头盘坐。
但当它说“我爱你”,然后一下子抱住了我,亲爱的,
那时候,我只好拔掉……它的……插座。
尽管时常表现得如精神错乱、神志失常,但爱绝不是设计故障、系统崩盘或功能失灵。心智从来没有像坠入爱河时那样全神贯注,所以爱一定是具有极其精致复杂的计算设计,才得出了包含吸引、迷惑、求爱、传情、俘获、承诺、摩擦、调戏、遗弃和心碎这些过程的特殊逻辑。最后,就像我奶奶过去常说的,每个茶壶总会找到一个盖;绝大多数的人,尤其包括我们所有的先辈,总能够两两厮守在一起足够长的时间,来繁衍数量不等的子孙。设想一下,你得编多少行程序才能复制这一奇迹!
机器人设计是一种意识的提升。我们似乎对我们的精神世界感到习以为常。睁开眼睛,熟悉的文章就会自动呈现在面前;想要移动肢体,躯体就会自然地换到合适的位置;从梦中醒来,就又会回到令我们感到舒适的、可预知的世界;丘比特搭弓引弦,爱之箭便随之而出。但要是仔细想想要实现这些几乎不可能的结果需要完成多少事情,你就会透过表象看到本质。视觉、行动、常识、暴力、道德还有爱,无一例外,都是可以厘清的智能的核心组成部分,它们是信息处理过程。其中每一项都是高级专项设计的杰作,而隐藏于意识状态背后的则是高度复杂的设备——光学分析仪、运动指导系统、实境仿真、人与物的数据库、目标排程器、冲突解决装置,等等。任何将心智如何运作的解释归因于某一种主要力量,或是安置心灵的灵丹妙药,如“文化”“学习”或“自组织”,听起来都是苍白空洞的。这些解释无法完整地反映,我们是如何成功地应对冷酷宇宙所提出的高要求的。
机器人难题暗示了心智具有固有的设备,但即使作为纯思维推断而言,这也是很令人震惊的。那我们在直接审视心智设备或这套设备的装配图纸时,能否看出这个复杂系统的一些端倪呢?我相信可以。我们所看到的,也像机器人难题本身一样,令我们思路大开。
比如说,当大脑的视觉区域受损时,我们眼中的世界不只是变得模糊或布满小孔,有些视觉感受甚至都没有了,但有些却还完好无损。有些患者能看到整个世界,却只注意其中一半。他们只吃盘子右侧的食物,剃须只刮右半张脸,画钟表时12个刻度都挤在右边。还有的病人丧失了对色彩的感觉,但他们眼中的世界却并非如艺术黑白电影一般。在他们眼中,物体表面看上去像布满灰尘,如老鼠般的灰色,令他们食味索然、性欲全无。还有一些患者,可以看到物体位置的改变,却看不到物体的移动——对于这种症状,一位哲学家曾试图说服,这在逻辑上是不可能的!茶壶中倒出的水不是在流动而是像一个冰柱;茶杯不是逐渐盛满茶水而是突然就由空变满了。
还有些病人识别不出他们所看到的物体:世界对他们来说,就像是一幅无法辨认的书法作品。他们能忠实地复制和描绘鸟的模样,但却将它认作残木桩。打火机在点燃之前对他们就是个谜。他们在除草时,去拔玫瑰花。有个患者能够识别无生命的物体,却认不出一张脸。他推断出镜子中的容颜是他自己的,但在内心深处却认不出自己。他将约翰·肯尼迪认作马丁·路德·金,他还请妻子在参加聚会时系一根丝带,这样在聚会结束时,他就不会找不到自己的妻子了。还有更令人感到奇怪的一位患者,他能认出脸,却认不出人:他认为他妻子是一位模仿得惟妙惟肖的假扮者。
这些症状是由于组成基本视觉系统的30个脑区域中一个或多个区域受到创伤导致的,往往是由于脑卒中。有些区域专门负责色彩和形状,另一些区域处理物体所处的位置,还有一些区域负责物体是什么,另有一些区域反映物体如何运动。制造一个可视机器人不能仅凭一个像电影中的鱼眼视觉搜索器,人类视觉的构造当然也不是靠这种方式的。当我们注视这个世界时,我们无须考察这个形成我们综合视觉体验的多层仪器,除非神经性疾病将这些不同层面分离开来。
另一个拓宽我们眼界的领域源自同卵双胞胎们令人惊叹的相似之处,这类双胞胎有着相同的构建心智的基因序列。他们的心智极其相似。这不仅体现在对智商或如神经质和内倾性等人格特质的测量方面,还表现在:如拼写或数学方面的天赋;对种族隔离、死刑、全职妈妈等问题的看法;职业选择;爱好;恶习;宗教信仰;约会对象偏好等。同卵双胞胎的相似性远大于异卵双胞胎的相似性,后者只有一半基因相同。更奇怪的是,同卵双胞胎无论是分开长大,还是在同一个家庭环境中一起长大,几乎没什么差异。刚出生就分开的同卵双胞胎,表现出共同特质。比如,因为感觉获取信息不足而不参加投票选举;看到什么都禁不住要数数;成为消防站志愿者;几乎从不在家中留些便笺表示对妻子的爱意。
这些研究发现非常引人注目,甚至令人难以置信。传统观点认为,我们的自由意志凌驾于肉体之上,我们在一生中自己做出选择,只会受到过去和现在经历体验的影响。而上述研究结果却质疑了这种“意愿自治”的观点。当然并不是说,心智生来便具备了一整套事无巨细、皆可操控的设备,以至于一切均为宿命天定,包括上厕所之前之后都要冲水或在拥挤的电梯中恶作剧般地故意擤鼻子(这两个例子其实也是分开养育的同卵双胞胎共同特质的例子)。但结果似乎确是如此。基因的这种深远影响已经被大量的研究所证实。无论研究方式有何不同——比较分养和共养的双胞胎,比较同卵和异卵双胞胎,比较收养和亲生的孩子——基因的作用都表现无遗。尽管遭到一些批评,基因的这种影响并不是像这些批评所说的由巧合、欺骗或家庭环境的相似性所致。这些研究结果当然可以用不同的方式来曲解,比如,想象一个基因专门负责不怎么在家中留下爱意便笺,或认为人们不受其经历的影响。因为这种研究只能衡量人们彼此之间不同的心智形式,而对所有人的共同心智设计却所言甚少。通过展示心智在内部结构上的差别,另外一些研究则让我们对心智的结构大开眼界。