购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

01

最亲密的伙伴“拓麻歌子”
有生命的电子宠物

电子宠物改变了孩子们对“生命”的理解。他们在养育“拓麻歌子”的过程中,付出过爱,也感受到爱的回报。当这些电子宠物“死去”时,孩子们会体验到失去亲人般的悲伤。在他们心里,这些电子宠物也是值得怀念的 “生命”。

20世纪70年代,我第一次接触具备陪伴功能的计算机程序。当时在我周围,有很多学生都在使用麻省理工学院教授约瑟夫·魏岑鲍姆(Joseph Weizenbaum)开发的计算机程序ELIZA。ELIZA是一款能模仿心理医生与病人进行谈话的程序。使用者通过键盘输入一个想法,ELIZA就可以给予答复从而提供帮助,或者要求提问者进一步澄清问题。比如,使用者说“我妈妈让我很恼火”,程序可能会说“再和我多谈谈你妈妈”,或者“为什么你对你妈妈的感觉这么消极”。作为一个计算机程序,ELIZA并不知道“母亲”二字的含义,更不知道生气这种情绪意味着什么。它能做的就是捕获一串串文字然后变成提问,或者重申对方的意思作为解读。

魏岑鲍姆的学生其实明白,这个程序不知道、也不懂他们在说什么;但他们仍然希望和它交谈。而且,他们希望能和它单独待在一起,因为他们想对它说出自己的秘密。面对一个通过最简单的举止表明它能与你产生共鸣的程序,人们都想说点心里话。我看到成百上千的人对早期的ELIZA程序输入第一句话,通常大多数开头都是“你今天过得好吗”或者“你好”。但是4~5个来回之后,许多人会说“我女朋友离开了我”,“我担心有机化学考试搞砸”,或者“我的姐妹去世了”。

此后不久,魏岑鲍姆和我在麻省理工学院共同开设了计算机和社会课程。课堂气氛相当热烈。在课堂讨论期间,他反对说自己的程序具有欺骗性,而我认为他是多虑了。在我看来,ELIZA就像心理医生所做的某种罗夏(Rorschach)墨迹测验。人们将程序看作一个表达自我的投射屏幕。没错,这正是我想说的,表面上他们和ELIZA进行了一场私人谈话,但却是在“好像”的假象中进行的。他们明知这是自说自话,但却表现得“好像”有人在倾听。他们被牵扯进这场测验里。他们想,我得像和真人说话一样和这个程序交谈。我得排解压力,发泄愤怒,一吐胸臆。这还不止,当有些人进一步知道这个程序也会失误以后,就更有可能用相同的内在逻辑来回应ELIZA的回答,使这程序看起来更生动、更真切。在和这个程序互动的游戏中,他们表现得相当积极。

魏岑鲍姆教授感到有些不安,因为他的学生上了程序的当,他们竟然能违背常识,相信自己正在面对一台智能机器。他甚至为创造了一台骗人的机器而感到内疚。但他那些世故老成的学生们其实是不会被蒙骗的。他们完全清楚ELIZA的局限性,但是他们仍然迫不及待地要“逢场作戏”。我开始把这种人类在虚拟游戏中的串通行为称之为“ELIZA效应”。整个20世纪70年代,我并不认为这种人类与机器的串通行为是一种威胁,而认为是为了改进互动日志的工作质量。正如它所表现的,我低估了这种串通的发展势头。进入机器人时代后,人类与非生命物体结合的意愿前所未有的强烈,这并不表明我们想被骗,却表明了我们想“逢场作戏”。

如今,距离魏岑鲍姆教授第一次撰文描述ELIZA已经过去了40多年。以“机器人爬虫程序”为代表的人工智能,正为无数互联网在线游戏者充当同甘共苦的伙伴。在游戏世界里,与自动程序就多个话题展开“交谈”似乎已经成为一件十分平常的事。而且,正如它最终证明的,一旦你用虚拟世界里的自动程序保存你的“人生”,你就很容易迷恋上它。而且,不管你对立体音响或者汽车有多么喜爱,都绝对比不上这种迷恋。与此同时,在真实的自然世界里,事情正在飞速发展着。备受欢迎的机器宠物“猪猪鼠”起初来源于一种“养育模式”。“猪猪鼠”的官方传记作者查克说:“它活着的意义就是为了感受到爱。”对老年人来说,逗人喜爱的机器小海豹正在热卖。再看看日本,它现在瞄准美国的家庭护理市场。机器人专家提出理由证明:由于人力资源短缺,老年人需要一名伙伴机器人。他们几乎肯定地说,机器人会改善老年人的状况。

当一些机器人专家梦想着置换爱情的时候,其他专家正在考虑置换性爱。在2010年2月,我使用Google搜索引擎精确搜索“性爱机器人”这一短语时,得到了313 000条结果。第一条结果链接到一篇文章,题目为《发明者披露价值7 000美元的交谈式性爱机器人》( Inventor Unveils $7 000 Talking Sex Robot )。于是我得知,这台名叫Roxxxy的机器人“可能是世界上最精密、复杂的谈话式性爱机器人”。令人惊叹的机器人军团正身穿内衣睡袍,以出人意料的速度向我们靠近。究其原因,正如我之前提到的ELIZA效应,与其说是因为机器人技术已经很成熟了,不如说是因为我们已经准备好迎接机器人时代了。

在一期电视新闻节目中,我看到一台有着性感女人外表的日本机器人。一名记者解释说,虽然目前它仅仅像个机器服务员,但它的设计者希望有朝一日它能成为机器老师或伙伴。记者对机器人未来的发展趋势毫不怀疑,提出了“奇点”(singularity)的概念,用以联系眼前这个略显尴尬的机器人和未来的机器人妻子之间的鸿沟。他问发明者:“当‘奇点’到来的时候,没有人能够猜想出她(机器人)在未来会变成什么样子,对吗?……‘奇点’之后的机器人会是什么样呢?未来机器人世界的情景是否会让我们大吃一惊呢?”

“奇点”这个概念来源于有关设计制造的科幻小说。“奇点”是当机械智能超越某一个临界点的神话般的时刻。据那些对此深信不疑的人讲,过了这个临界点之后,人工智能将完全超越我们目前的想象。不管今天的机器人技术是否可以胜任黄金时段的服务员功能,一旦超越“奇点”,从技术上讲任何事情都是可能的,机器人也将懂得如何去爱。的确如此,当“奇点”发生之时,我们可能与机器人融为一体并因此永垂不朽。“奇点”,意味着技术领域的纵情狂欢。

至于魏岑鲍姆教授,他认为人们对计算机心理治疗是持开放态度的,并准确地预感到更大的发展还在后面。在20世纪70年代末,很多人对计算机心理治疗一直保持沉默,但是很快,舆论就转向了。事态表明,机器在理解人类的能力上并没有什么新进步,但是人们对心理治疗和自己心灵运转的认识正在发生变化,变得更加机械化了。30年前,随着心理治疗更加贴近文化交谈,大多数人将治疗过程视为一种情境。在这一情境下,我们能以新的方式解读自己的人生经历。要实现治疗,你必须获得洞察力,与治疗师建立起一种关系,他会为你的种种纠结提供一个安全的着陆场所。如今,许多人不再认为心理治疗是一种关于我们生命意义的调查追问,他们更多地认为它是一种能够改变行为的训练,或是对大脑化学反应的探索。在这种模式下,计算机在很多方面变得意义重大,比如,它可以协助诊断,为认知行为治疗建立程序,以及为替代性药物治疗提供信息。

先前对计算机作为心理治疗师有颇多微词,是因为许多人对于计算机的存在有某种“浪漫主义的反应”,认为有些领域是计算机无法涉足、也不应该涉足的。简单地说,这种“浪漫主义的反应”认为:“模仿思考可能是思考,但是模仿感觉一定不是感觉,模仿爱情也绝对不是爱情。”现在,这种“浪漫主义的反应”已经被新的实用主义观点所取代。后者认为,计算机能够“理解”任何细微的人类体验,比如,它们知道嫉妒兄弟姐妹、或者怀念已故的父母是什么含义。不过,他们的理解能力的确比过去好多了,而且,我们乐于扮演配合的角色。毕竟,人们的在线生活就是一场表演。我们经营社会关系网络,指挥我们的虚拟化身在虚拟世界里的行为表现。对表演行为进行额外奖励是机器人时代的一大基础。之所以说我们已经进入机器人时代,并不是因为我们的生活有机器人陪伴,而是因为我们看待机器人的方式已经完全表明了我们是谁、我们想成为谁。

我们怎样到达理想之地?问题的答案就隐藏在“平地风云”里,隐藏在粗糙混乱的游戏室里,隐藏在儿童们对机器人玩具的反应里。作为成年人,我们能够轻易改变观点。在童年,我们确立的是自己内心最真实的一面。

我已经观察儿童,以及陪伴他们的那些层出不穷的越来越精密的机器人玩具30年了。我发现,这些玩具已经从“有点像真的”发展到了“足够逼真”,这是和电子宠物、电子娃娃之类的机器人一同长大的这一代人的专属语言。达到“足够逼真”意味着一个转折点。在20世纪70年代末80年代初,儿童们对真实性和计算机之间的区别有着哲学般的思考。而现在,当孩子们为了“特定的目的”说起机器人是多么栩栩如生时,他们不再去考虑那些抽象的问题。他们的态度非常实用:不同的机器人要做不同的背景分析。比如,如果作为朋友、一个保姆,或者祖父母来说,它足够逼真吗?有时这个问题变得更加微妙:如果机器人能够让你爱上它,你觉得它逼真吗?

电子玩具改变了儿童对生命的理解

在20世纪70年代末80年代初,儿童们有了第一批计算机玩具:比如“梅林”(Merlin)、“西蒙”(Simon)和Speak&Spell。游戏室里的第一代计算机对孩子们的记忆和拼写能力提出了挑战,使他们在三连棋和猜英文单词这样的小游戏上经常落败。互动型玩具把孩子们变成了哲学家。体验过这些玩具以后,孩子们问自己,这些经过编程的东西有生命吗?

儿童的出发点是他们对世界的认知渴望。他们通过理解自己(这是他们最了解的方式)来理解世界。为什么石头会滚下山坡呢?年幼的孩子说:“为了滚到坡底”,仿佛石头有自己的意愿似的。但是,万物有灵的观点迟早会让位于物理学。孩子们学习后知道,石头下落是因为万有引力,和意愿无关。于是,他们确立起一种一分为二的观点:物理特性和心理特性是截然对立的两大系统。但是计算机是一个新例外:它有心理特征,同时也遵从物理特性。像计算机这种横跨两个种类的临界物体,促使人们关注以下问题:我们怎么区分物理和心理特性呢?

20世纪20年代,瑞士心理学家让·皮亚杰(Jean Piaget) 通过对儿童的访谈发现:儿童通过对象的物理运动来确定其生命状况。最小的孩子认为,所有能动的东西都是活的;稍大一些的孩子认为,只有那些不需要外力推拉就能动的物体才是活的。他们很容易区分人和动物,但是像云这种看起来好像自由移动的物体也被认为是活的。直到孩子们认识了风,一种外在的但是看不见的力量,助推着云的方向。当孩子们理解发动机是一种“外在”推动力时,他们把汽车重新划分为没有生命的物体。最后,关于自主运动的认识集中到了呼吸作用和新陈代谢上,这才是生命最典型的特征。

到了20世纪80年代,在回答“计算机对象是不是活的”这个问题时,儿童们放弃了从物理到心理的划分,又有了新的思路。当他们注意到一个能在拼写游戏中击败他们的玩具时,他们不再好奇这个对象能不能动,而是关心它能不能自主思考。孩子们问,这个游戏是不是能“知道”?它是在骗人吗?“知道”是否也是骗局的一部分呢?他们十分着迷,想知道这些电子游戏和玩具是怎么实现自主的。当发音拼写游戏机Speak&Spell的早期版本出现程序失灵,而且没法在“朗读”环节关机时,为了“弄死”这台机器,孩子们会激动地尖叫着拔出电池,然后把电池装回去,这样它就又复活了。

在他们关于“计算机的生与死”的热烈交谈中可以看出,20世纪80年代的儿童为新的物质世界设定了新的概念准则。到了20世纪90年代,这一准则被发挥到了极致。在如《模拟人生》( The Sim )这样的虚拟世界中,生命形式进一步进化,网络世界因此焕发出勃勃生机。与此同时,儿童文化也受到了电影、动画片、仿真玩具人中会变形的虚拟形象(从终结者到电子病毒)的影响。儿童把计算机里的东西等同于现实生活中的东西。一个8岁的小女孩认为,机械生命和人类生命是“同一个东西”,只不过机器生物更加令人生厌。这引起了新一轮对真实性问题的讨论。当讨论起计算机一类的玩意时,孩子们既说到演变,也会说到认知,而且还会谈到流动性。1993年,一个10岁的小孩在回答《模拟人生》游戏里的虚拟人物是不是活着这个问题时,她说:“如果他们能从电脑里出来,并且上美国在线的话,他们就是活的。”

在这里,皮亚杰关于运动的叙事研究以新的形式再次得到体现。儿童通常会把这种渴望倾注在模拟游戏里的人物身上:我想逃出禁锢,进入到一个更宽广的电子世界。于是,从20世纪90年代开始,让孩子们更着迷的电子生物出现了。他们不仅仅以“智能”著称,更因具备“社交能力”而受人瞩目。从那时起,我也展开了有关儿童与新机器互动情况的漫长研究。孩子们认为机器人的运动能力和智慧是他们生命存在的信号和证据。但是即使是在关于真实性的专门谈话里,儿童更在乎的却是这些新机器人能感觉到什么。按照生命的标准来看,任何东西与机器人的关怀能力相比都会黯然失色。

让我们从3名小学生的讨论来看看,想法怎样变成了感觉。他们讨论的是“菲比”,一种猫头鹰模样的机器玩具。它会玩游戏,还能在儿童的指挥下学英文。首先,一个5岁的小女孩拿它和电子宠物蛋“拓麻歌子”相比。电子宠物蛋是一个在LED屏幕上显示的小小电子生物,会卖萌求得主人的关爱和挑逗。小女孩自言自语:“‘菲比’是活着的吗?”然后回答:“噢,我很喜欢它,它比电子宠物蛋更像真的,因为它和我一起睡觉,而且它喜欢和我一起睡。”一个6岁的小男孩认为,像“菲比”那么真实的机器人就得有胳膊,他说:“它也许想捡起什么东西或者和我拥抱。”一个9岁的小女孩这么说:“我非常喜欢照顾它……除了不能吃东西,它几乎和你一样……它是活的,但不是动物的那种活法。”

20世纪70年代末,自从我开展研究儿童与计算机方面的研究以后,我发现儿童经常说,一只“像动物那样的活的东西”和一只“像计算机那样的活的东西”。而现在,我常听到儿童说,一种“像人一样的爱”和一种“像机器人一样的爱”。社交机器人使儿童形成了某些习惯用语,比如机器是能提供关怀、也需要关怀的活物。在谈到社交机器人时,儿童们既不用“生物性是否齐备”、也不用“关系是否齐备”进行考量,而是使用了“足够真实”这个短语。儿童们认为,机器人是足够真实的,值得去爱,也值得怀念。与此同时,正如我们在美国自然历史博物馆看到的那样,在某些环境下机器人可能是足够真实的,并且可以用来替代生物。那天在博物馆里,孩子们觉得用机器龟来代替活海龟是一件特别正常的事,其中有一个原因是:儿童们很自然地认为,机器龟既是机器也是生物。

从一个名叫威尔逊的7岁男孩身上,我也见到了这种变通。威尔逊很聪明,是波士顿公立小学的一名学生。有一次,在放学后的游戏时间里,我给他一只机器玩具“菲比”,让他带回家。几周后,威尔逊给了我反馈,他对“菲比”的感受是这样的:“‘菲比’会说话,而且看起来像一只猫头鹰,虽然我仍然听到了它身体里面的机器声音。”他同样也认为,尽管“菲比”是一名“足够真实的朋友”,但不能将它与真的动物放在一起,因为“一只真的猫头鹰会把他的头咬下来”。对于威尔逊来说,承认“菲比”的机器特征和把它看作好朋友或是向它寻求帮助,是不矛盾的。现在,“菲比”已经成了他的知己。威尔逊对“菲比”双重属性的认识,对于我来说,似乎是多重任务处理的一个哲学版本,是20世纪注意力生态学的核心。他的态度是实用主义的。如果他面前有一个物体并且有自我意识,他会与最贴近环境的那一部分自我打交道。

这种实用主义已然成为我们心理文化的标志。在20世纪90年代中期,我曾在文章中这样描述,对人们来说,经常把人类头脑中的不同想法,比如机能、精神、化学、灵魂的化身等,进行“重复循环”,是一件很平常的事。现在,这种“重复循环”进一步加剧。我们与头脑中偏机器的那一面走得更近了。人们在身上安装一个电脑芯片来帮助治疗帕金森综合征。他们学着将自己的大脑看成是程序或硬件。他们服用精神治疗医师开出的抗抑郁剂,并确信生物化学意义上的自我和心理意义上的自我可以同时接受治疗。他们在脑部扫描里寻找情绪的信号。那些关于情人之间需要“化学反应”的笑话也被证明不再是笑话了。有催化爱情功能的复合药物也即将被研发出来。从两性吸引力产生的生物化学反应来看,这与坠入爱河的兴奋感是一样的。而且可以看到,一个受虐待的孩子脑部扫描结果正常,并不意味着他对虐待行为感觉不到愤怒。对于自我,我们的态度是多元化的,我们把这种务实的情感用在了某些必须面对的事物上,比如,社会型机器人。我们像威尔逊那样走近它们:它们是机器,但它们不仅仅是机器。

1832年,拉尔夫·沃尔多·爱默生(Ralph Waldo Emerson) 在他的日记里这样写道:“梦想和野兽是两把钥匙,借助它们,我们得以发现有关人类本能的秘密……它们是我们的实验对象。”如果爱默生可以活到今天,他会看到社交机器人已经成为我们新的实验对象。我们对无生命的程序和有生命的生物的观点是平衡的,机器人这一新的种类促使我们去探索连接与关系的区别,与研究对象建立起深厚感情和与研究对象投入的区别。这些机器人能够引起情感共鸣:理解人们怎么看待他们,有利于看清我们怎么看待自己。当儿童们谈论这些机器人时,他们放弃了早期认为的、计算机是用来刺激好奇心的看法,并认为机器人有可能是能够与人类牵手到老的伙伴。这种观点的改变,始于儿童遇到了电子宠物蛋“拓麻歌子”和猫头鹰玩具“菲比”,即第一代会卖萌的计算机。

“拓麻歌子”:被爱,也回报以爱

20世纪70年代末,当活跃的、会互动的计算机玩具刚开始推出时,儿童认为他们不是玩具,不是人,也不是动物。它们看起来也不像是机器。计算机在电子玩具和电子游戏的外包装下,把儿童变成了哲学家,掀起了关于“这些东西是什么”的自发讨论。在某些情况下,这些讨论使人们意识到,这些健谈的、聪明的计算机很像他们的同类。当儿童被问到人有什么特点时,他们会把自己和他们“最亲密的邻居”作比较。按照传统,儿童通常把他们的小狗、小猫、马作为“最亲密的邻居”。动物是有感情的,人类的特点在于他们有思考能力。因此,亚里士多德学派这样来定义人:他们认为人是有理性的动物,即使是年纪最小的孩子也能理解这种定义的含义。但是到了20世纪80年代中期,会思考的计算机成了人类“最亲密的邻居”,儿童认为人类之所以特别仅仅是因为他们能够“感觉”。计算机是有智慧的机器,与之相反,人类成了感性的机器。

然而,到了20世纪90年代末期,儿童们接触到的玩具似乎有感情、有需求。作为感性的机器,人类不再形单影只。更多的电子宠物蛋“拓麻歌子”和更多的猫头鹰玩具“菲比”(两者的销量都是上千万只),它们想告诉你它们是饿了还是不高兴。一只猫头鹰玩具“菲比”可以上下晃动着对你说“我害怕”,而且是煞有介事地悄悄说。现在,这些新玩意找到表达它们感情的办法了。

“菲比”系列玩具于1998年投放市场,有着合适的机器宠物“身体”;它们很小,是有羽毛、大眼睛和大耳朵的“动物”。然而,1997年上市的电子宠物蛋“拓麻歌子”则是一个藏身在塑料蛋壳里的虚拟生物,在社交机器人中属于可靠的入门级玩具。它非常有用,因为主要部件都被简化了,因此看上去非常朴实。儿童认为宠物蛋似乎有生命,是因为它如其他动物一样,需要持续的关爱而且永远处于开启的状态。宠物蛋栩栩如生,以至于孩子们可以想象它的死亡。为了活下去,一只宠物蛋必须有人喂食、逗乐,清扫脏污。如果养育得当,它会从小婴儿长成健康的成年人。宠物蛋还可以在有限的范围内发展出不同的性格,这一切取决于它们是如何被抚养的。当宠物蛋把儿童们变成护理员的时候,它们还告诉人们,电子生活也可以是一个需要感情投入、有义务也有遗憾的地方。30年前,最早一批儿童电子玩具,如“梅林”、“西蒙”和Speak&Spell之类的游戏机,促使儿童们思考这个观点:聪明的东西有可能是“某种活物”。每当宠物蛋可怜兮兮地要求施舍时,儿童们表现得比过去更积极。

就像对待更早一代的、难以分类的计算机物品一样,好奇的儿童们经历了这样一个阶段:他们试着把新的社交对象从中区分出来。但是很快孩子们就把交互界面作为依据,认为他们不是智力游戏而是一个玩伴。早期计算机玩具引发出的哲学式的追问(它们是活的吗?它们能知道吗?)已经迅速换了新形式。儿童们可以好好照料它们,但不想理解得那么深。他们的基本立场是:“我和这个新生物生活在一起。它和像它这样的玩具就在这里安家了。”当一个虚拟“生物”或机器人请求帮助时,儿童们提供帮助。当它们表现出色时,儿童们会兴高采烈地带它出去逛街。

在经典儿童故事《绒布小兔子》( The Velveteen Rabbit )中,一只毛绒玩具兔子因为得到了一个小朋友的爱,最后居然变成了真兔子。同样,电子宠物蛋也不消极等待,而是要求被关注,并声称失去了主人的爱和关注,它们就没法存活。和积极主动地要求被照料相比,对生物真实性的追问被逐渐削弱。我们钟爱我们一手抚养长大的东西。如果一只电子宠物蛋让你爱上它,你就会感到它反过来也在爱着你,它是足够真实的,可以称为生物;它是足够真实的,可以与你分享人生中的点点滴滴。儿童对待社会型机器的态度和他们对待社会型宠物或人的态度是相似的——希望以朋友的方式对待他们。接触一个人(或一只宠物),并不是接触他或她的生物化学特征;熟悉一台社会型机器也不是解读它的程序。在早些时候,儿童们可能会问:“什么是电子宠物蛋?”现在他们的问题是:“电子宠物蛋想要什么?”

当一只电子“生物”向儿童索求抚养和教育时,它看起来足够真实,值得让人照顾;而恰恰当它受到照顾时,它看起来更真实了。一个名叫尼尔的7岁小朋友说他的电子宠物蛋“就像一个小婴儿,你不能仅仅给他换尿布。你还得,比如说,给婴儿擦乳霜。这样小宝贝才知道你爱着它”。他8岁的姐姐补充道:“当我的电子宠物蛋把大便拉得到处都是的时候,我非常讨厌它。我就像是它的妈妈。这是我的工作。我实际上不太喜欢这份工作,但是如果你任由它脏兮兮的,它就会生病。”3个9岁的孩子这样看待他们的电子宠物蛋。其中一个非常兴奋,因为他的宠物要求他盖一个城堡给它做窝。“我能这么做。我可不想它着凉、生病和死掉。”另一个十分期待她的电子宠物蛋提出请求:“我喜欢听它说‘我饿了’或是‘陪我玩吧’。”第三个小朋友把她与一只“已经死了的”电子宠物蛋的关系,浓缩为最关键的一句话:“她被爱,也回报以爱。”

这样的电子幻想源于何处?最重要的一点,源自需要关怀。养育游戏是“杀手程序”。随着惹人怜爱的电子宠物蛋的出现,儿童们变成了负责任的父母:请求转化成了关怀,以及受到关怀的感觉。孩子们让家长在他们上学期间照看电子宠物蛋。在20世纪90年代末,有一大批“听话”的母亲为她们孩子的电子宠物蛋做清洁、喂食并且逗它们开心;在商务会议期间,电子宠物蛋发出的“嘟嘟响”成为了熟悉的背景噪音。

这种家长式的沉浸是不可避免的,因为电子宠物蛋一直在运转。而机器对象应该是能够关掉的。儿童们明白,身体需要一直运转,无论是动物还是人,当他们“关掉”时也就代表了死亡。因此,无法关掉一只电子宠物蛋也成了它拥有生命的证据。7岁的小朋友凯瑟琳这样解释:“当某个身体‘关掉’的时候,它也死去了。”有电子宠物蛋可以被要求去“睡觉”,但是9岁的小朋友帕瓦缇分得很清楚,让她的电子宠物蛋去睡觉与按下游戏中的暂停键是不同的。生命在继续,当它们睡觉时,它 们没有死。它们仍然会生病和不高兴,甚至当它们睡觉时,还能做噩梦。

20世纪70年代末,计算机,这种界于有生命和无生命之间的物体,开始让儿童们有了幸灾乐祸的体验,当他们想“杀死”计算机时,他们就猛摔它。而在那之后,当孩子们又想让机器复活了,一定有关于重启的复杂程序。经过这些戏剧般的重生之后,在儿童们眼中,机器还是原来的机器。而20年后,当电子宠物蛋死去,即使重新设置一个新生命,儿童们也并不觉得回来的还是以前的它们。儿童们期待着这些他们摔过的电脑能重新复活,但他们害怕电子宠物蛋的死亡和重生。这引起了真正的自责,因为正如一个9岁的小朋友说的,“它不是必须死的,是我没有照顾好它”。

值得怀念的“生命”

当我照顾我的第一个电子宠物蛋时,我7岁大的女儿也在养育她自己的电子宠物蛋。因为有时我也会照料她的宠物蛋,所以我能够比较它们各自的行为。我说服自己,我的宠物蛋个性独特,与女儿养的那只不同。它喜欢按特定的间隔吃饭。我想它只需要很少量的娱乐就能茁壮成长。我用尽办法让它高兴,结果它却死了。我没有预料到自己会那么难过。我立刻按下重启键。出乎意料的是,我对出现在屏幕上的那个全新的电子宠物蛋小婴儿,失去了关怀欲望。

许多儿童并不渴望去按下重启键。他们不希望在相同的蛋壳里养育一只新生物,因为他们的虚拟宠物正是死在这个蛋壳里。对他们来说,虚拟宠物的死与他们所谓的“普通宠物”的死没有什么不同。当你触动电子宠物蛋的重启键时会发生什么?一群8岁的小朋友是这样说的,一个小朋友说:“它回来了,但它并不完全是你养的那只电子宠物蛋……你和它没有共同的经历。它的性格也有很大的不同。”另一个小朋友说:“它在骗你。你的电子宠物蛋其实已经死了。你的那只其实已经死了。他们说它又回到你的怀抱,但它并不是同一只。它和之前那只经历完全不同,这就像他们给了你一只新的。它记不起过去发生的事情。”还有一个小朋友说:“当我的电子宠物蛋死了,我不想和突然冒出来的那只新的玩。它让我想起那只真的(之前的那只)。我想要另一个宠物蛋(新的蛋壳)……如果你让它死了,你也应该有个新的开始。”父母们试着说服他们的孩子按下重启键。他们的观点合乎常理:电子宠物蛋还没有“用完”;重启电子宠物蛋就可以少跑一次玩具商店。但孩子们对这种观点无动于衷。

8岁的萨莉已经有了3只电子宠物蛋。每只死去的电子宠物蛋都会得到一个小仪式,“葬”在她衣橱最高的那一节抽屉里。萨莉3次拒绝按下重启键,而且说服她妈妈去买新的电子宠物蛋玩具作为替代。萨莉这样描述当时的场面,“我妈妈说我的电子宠物蛋还能玩,但是我告诉她一只电子宠物蛋很便宜,而且她不用给我买别的玩具,所以她就买了只新的给我。我不想重启那只旧的。它已经死了,它需要安息”。

从萨莉“它已经死了,它需要安息”这句话里,我们可以看到机器人时代的扩张。人们常说,无独有偶。而现在,一套程序和对一个令人厌倦的玩具的同情,碰到了一起。按下重启键,会产生一种难以分类的东西:一种生物,它看起来是新的,但实际上并不新,它代表已经失去的某样东西。这种新生物,是一个冒名顶替的家伙,是西格蒙德·弗洛伊德的经典案例。它类似恐惑 ,但又不完全是。恐惑通常是引人入胜、扣人心弦的。儿童们问:“一只虚拟生物死了说明什么?”然而,早期使用者在哲学层面上为“计算机是不是有生命”这个问题争论不休,而现在,面对电子宠物蛋,儿童们已经快速转向了日复一日的实践。他们用令人流泪的经历调和着哲学的高深。他们认为,电子宠物蛋是足够真实的,值得悼念。

弗洛伊德告诉我们,关于失去的体验是我们自我塑造的一部分。从隐喻的角度来看,悼念行为至少能让一个已经失去的人再出现。儿童文化在故事记叙方面的成果颇丰,这有助于年轻人顺利度过不同的成长阶段。因此,在《彼得·潘》( Peter Pan )这部小说里,为了快点度过青春期,长成一个成年女人,能够谈恋爱和做父母,温迪失去了彼得。但是在她顽皮而宽容的照顾下,彼得又重新出现。路易莎·梅·奥尔科特(Louisa May Alcott)的小说中,主人公乔失去了她温柔的妹妹贝丝。在悼念贝丝的过程中,乔成为了一位严肃的作家,而且获得了全新的爱的能力。我们拉近一点看看现在,年轻的巫师哈利·波特失去了他的导师邓布利多,但邓布利多一直在哈利的心里出现,使他找到自我,并实现其人生目标。从宠物蛋的身上,我们看到人们已经开始悼念人造生命。这种悼念与怀念一个洋娃娃玩具不同。宠物蛋已经跨过了一个门槛。儿童为他们的玩具赋予了生命。从宠物蛋身上可以看到,我们身处在人造生命的王国里,儿童认为它们有自己的日程、需要和意愿。儿童们悼念的是会生活的宠物蛋。

儿童对宠物蛋的悼念并不总是独自进行的。当一只宠物蛋死后,它可以被安葬在一个在线的宠物蛋墓园里。墓碑也五花八门。儿童们通过写墓碑来体现他们的宠物蛋是多么与众不同。一只名叫“土星”的宠物蛋活了12个“宠物蛋年”。它的主人写了一首怀念它的诗 :“我的宝贝在睡梦中死了,我会永远为它流泪。然后它的电池也死了。现在它活在我的记忆里。”还有一个小朋友这样悼念一只名叫“南瓜”的16岁的宠物蛋:“南瓜,大家都说你很胖 ,所以我让你减肥,害得你把命都丢了。对不起。”儿童们对虚拟宠物的死负起了责任。这种在线的悼念场所的意义,不仅仅是为孩子们提供一个表达感情的渠道,这相当于承认,悼念电子生命是合适的,人们觉得“那里”确实有什么东西值得悼念。 P+K4VQy0N5oDqU8isSNSp/wUDygiH6rC6pXH/dSOwEsUc+Yp074BTRlXomArRyeg



02

栩栩如生的“菲比”
涉足情感地带

人们可以与机器人建立亲密关系。“倒拎测试”告诉我们,人们可以随意地倒拎着“芭比”,但却不会这样对待真正的小动物,而倒拎“菲比”机器人超过30秒,人们就会有负罪感。我们本以为只有人才能涉足情感地带,实际上,机器人对此也很在行。

在20世纪90年代,孩子们都在谈论如何才能让虚拟生物逃离计算机屏幕,从而看起来更加栩栩如生。“菲比”,1998年年度假日热销礼物,就让这个梦想成真。如果有孩子希望他的电子宠物蛋能够跳出屏幕,那么它看上去也许会像一只毛茸茸的、有点像猫头鹰的“菲比”,并且这两者在其他方面也有着不少共性。和电子宠物蛋一样,“菲比”的性格在其与人的交互中形成,两者都将自己描述为来自其他世界的访客。但是关于“菲比”在为什么来到地球的解释则更加具体:为了向人类学习。因此,每一个“菲比”某种程度上来说都是人类学家,想要和人们建立联系。它请求孩子们的照料,向他们学习英语,并且知恩图报。它们提出要求,但它们也会说“我爱你”。

“菲比”和电子宠物蛋“拓麻歌子”一样,总是处于开启状态。但和宠物蛋不同的是,“菲比”常常会显得过于恼人的喋喋不休。如果想让它安静下来,你需要找一把螺丝刀卸下它的电池,但这么做会让它失去之前的所有记忆和经验——它学了哪些东西,如何与人交互等。对于那些花费了许多时间将它“养育”大的孩子们来说,拿掉电池并不是一个可行的方法。在1999年春天的一个晴朗的下午,我带着8个“菲比”来到马萨诸塞州西部一个小学的午后游戏小组中。房间里共有15个孩子,年龄在5~8岁,从幼儿园到小学三年级不等。我打开录音机,开始向他们分发“菲比”。孩子们开始兴奋起来,模仿“菲比”的声音打招呼。在嘈杂的教室中,录音机记录下了这段“机器人时间”:

它是个机器宝宝!它说:“好吃!”我的是个机器宝宝吗?它正在睡觉吗?它打嗝了!它说“比啪”,这是什么意思?让它们一起玩吧。“a-lee-koo-wah”是什么意思?“菲比”,和我说会话吧!太棒了!大家静一静!哦,看那,它爱上了另一个!让它们一起玩吧!它累了,它睡了。我要试着喂它吃饭。它们怎么会没有手臂?看,它陷入爱河了!它叫你“妈妈”。它说“我爱你”。我得喂它了。我也要喂我自己的了。我们爱你,“菲比”。你是怎么让它睡觉的呢?它的眼睛闭上了。它在闭着眼睛睡觉。它在说梦话。它在做梦。它在打呼噜。我得帮它遮遮亮光。

快点,“菲比”,快睡觉吧。“菲比”,“菲比”,嘘,别碰它。我可以让它安静下来。它是个机器人。它是个机器人吗?这皮毛是什么?我对它过敏。它看上去像是活的。它有一个身子,一个机器马达,它是个怪物。它看上去像真的是因为它有身体。它之前是活的。它是活的。它不是。它是机器人。

从最初开始,孩子们就弄清楚了“菲比”是个机器人,但它却栩栩如生,需要照料。他们试图用自己已有的知识理解“菲比”。噩梦和恐怖电影让一个孩子把“菲比”看作 “一个怪兽”,他们有自己理解孤单的方式,这激发一个孩子提出建议:“让我们一起玩!”他们使用逻辑和质疑:“生物有这样的皮毛吗?真的生物有马达吗?”也许这需要对马达进行重新的、更广意义上的界定。他们用这个新玩意的模糊度来挑战自己已有的知识。他们对一些新想法更加开放,如机器可以视作生物,生物也可以视作机器。8岁的珀尔认为,从“菲比”体内卸下电池会导致其死去,而人类的死亡也和“卸下电池”类似。

“菲比”不断强调着自身的生物性:它们彼此之间相貌不一,在皮毛处有着不同的装饰;他们都有活物一样的生理需求。比如“菲比”需要常规的喂食,完成喂养的方法是用指头按下它的舌尖。如果“菲比”没有被喂食,它就会生病。而照料生病的“菲比”需要更多的食物。孩子给“菲比”的功能故障起了不同的名字,所以就有了“菲比癌症”、“菲比流感”、“菲比头疼”等词汇。

8岁的杰茜卡认为她自己和“菲比”在“身体的事情”上有着许多共同点,比如头皮会痛。杰茜卡的家里有一个“菲比”,当她的妹妹拽“菲比”的头发时,杰茜卡总是担心“菲比”会很痛:“当我拔自己的头发时真的很疼,就像我妈妈帮我梳理打结的头发的时候。因此,我觉得(拽“菲比”的头发)一样很疼。”接着,她又开始研究自己的肚子。“我的肚脐眼里有个螺钉,如果把螺钉拧下来,那么血就会流出来。” 杰茜卡觉得人和“菲比”一样要安装电池。“肚子里有心、肺和一个大电池。”人和机器人的区别在于,我们的电池“像太阳一样永远工作”。当孩子们像谈论家庭成员一样谈论“菲比”的时候,他们也在尝试这样的想法,即人可能也是一台机器。关于“人是机器、或者可以和机器连接的想法”成为教室游戏的主题。玩具机器人用其独特的方式完成了仿生感知。毕竟,的确有一些人的体内植入了螺丝、针钉、芯片和金属板。比如一个最近刚接受过耳蜗助听器植入手术的病人,就将这一经历形容为他自己身体的“再造”。

前文中提到的7岁的威尔逊,则非常愉快地认同他的“菲比”既是机器也是生物的观点。因为他总是能听到“菲比”体内“机器的声音”,他也找到自己身体内的机器部件。他一边哼唱着“机器人是最好的朋友”的即兴歌曲,一边在自己的身体上假装用螺丝刀,唱着“我就是‘菲比’”。在针对二年级的、通过分解以修复“菲比”机器人的课堂实验中,威尔逊因为“菲比”具有生物特性而玩得很开心,“我要给它接生宝宝”。接着,他开始假装自己具有机器特性:他将螺丝刀放在自己的踝关节上,边拧边说:“我要拆下我的脚踝!”

威尔逊很开心地将自己和“菲比”分为一类。对他来说最重要的是,他和“菲比”都会打嗝。他说:“‘菲比’和我一样喜欢打饱嗝。”威尔逊双手向前举着“菲比”,用手轻轻地触摸着它的肚子,紧紧地注视着它的眼睛,并且近乎同时地打了一个饱嗝,这一幕很像电影《外星人》( E.T.:The Extraterrestrial )中的埃利奥特和外星访客之间的经典镜头。当威尔逊描述他的打嗝游戏时,他先说是自己让“菲比”打嗝,最后却推翻说是“菲比”让自己打嗝。他喜欢和“菲比”之间的同步感,他可以很开心地和“菲比”交替着进行。

“菲比”想要什么?

当威尔逊把自己和“菲比”视为同类的时候,有生理的原因(打嗝),也有心理的原因。和许多孩子一样,他认为由于“菲比”有语言功能,因此比起“一般”的宠物来说,更加像人类。“菲比”内置了自己的语言库,许多孩子们都想要记住这些单词。使用指南也在教孩子们如何与“菲比”相处:“听你说话,我可以学习英语。你越常和我玩,我越能多说英语。”事实上,“菲比”的英语词汇量是随着使用时间的累积而增加的,而并非真正通过“听”孩子们说话而学习来的(“菲比”并没有真正的听力或者语言学习功能)。但8岁以下的儿童都会认为是自己教会了“菲比”说话。对于他们来说,“菲比”已经足够栩栩如生了。

孩子们喜欢做“菲比”的老师。从第一次见面开始,他们就发现自己和“菲比”之间有许多共性,并且暗示自己“菲比”可以长大、可以更好地理解他们。“我原来也不会说英语,”一个6岁的孩子说,“但现在我会。因此我知道‘菲比’也在经历这个过程。”在和“菲比”一起的课堂上,孩子们大声地争相称赞自己的“菲比”:“我的‘菲比’会说的英语比你的多!我的‘菲比’会说话!”

在研究中,我曾有几次要求学校的孩子们把“菲比”带回家,让他们(和他们的家长)记“菲比日记”。在我对幼儿园到三年级孩子们的第一次研究中,我把“菲比”出借了两周。这不是一个好主意。我没有想到到期时,孩子们要归还“菲比”时的失落感。因此,在家长们的要求下我延长了借期。孩子们已经和机器人建立了深刻的感情联系以至于难以分开,即使家长们承诺给他们买一个属于自己的“菲比”也无济于事。这种感情比养电子宠物蛋时强烈,孩子们与那一个特定的“菲比”建立了深厚的感情,他们教它学习英语的那一个,他们抚养长大的那一个。

在过去的30年里,我常常使用罗夏墨迹测验的比喻来描述人和计算机的关系。罗夏测验是由经过精心制作的墨迹图构成,而被测试者在解释这些图片的时候,会投射自己的主观感情和思维方式。然而在孩子们与诸如“菲比”这样的社交机器人的互动中,这种人机关系已经超越了罗夏墨迹测验中的“投射”关系,是一种新的参与心理。他们尝试用与人或宠物交往的方式与机器人交往。9岁的利娅在课后兴趣小组中承认:“当它和我说话的时候,我很难关掉它。”孩子们很快就认识到,要想让“菲比”发挥全部的功能,就必须仔细听它说话。当你和“菲比”在一起时,你不能只是简单地玩“心理投射”的扮家家游戏。你必须持续不断地评判“菲比”的“感情”和“身体”状况。孩子们笃信:给予“菲比”最多的爱,“菲比”也会以最多的爱来回报你。

这种互动的亲密关系,正是“菲比”这样一个典型的初级社交机器人与其他传统玩偶的区别。正如我们在研究中所发现的,孩子们玩这样的社交机器人和玩皱巴巴的洋娃娃(Raggedy Ann)以及“泰迪熊”不一样,不需要通过主观幻想来赋予它们“生命”,而是认为它们已经是活生生的,可以与它们立刻建立亲密关系。这种关系是双向的、互惠的,和传统的玩偶不同,它们不是被动的。它们提出要求。它们也有自己的需求和内在生命。它们教会我们使之茁壮成长的爱的仪式。在过去的几十年里,计算机已经教会了我们如何与机器一起思考;如今,计算机与善于社交、情感和交互的机器人,教我们如何与它们同呼吸、共命运,与它们一起感受生命和生活。

孩子们可以依据自己的需要和想象塑造传统的玩偶。比如,一个8岁的小姑娘由于打碎了妈妈最喜欢的水晶花瓶而后悔不迭,她有可能转而惩罚自己的“芭比娃娃”。她有可能把“芭比娃娃”从下午茶聚会的装饰背景中拿开,把它关禁闭,把自己有可能遭到的惩罚转嫁到“芭比娃娃”身上。而相反的,由于社交机器人看上去似乎有着自己的心智和意愿,因此不能轻易地由于其他人的过失而被充当替罪羊。两个8岁的女孩是这样评价“传统玩偶”与“菲比”的区别的。第一个女孩认为, “‘传统玩偶’,比如我的玛德琳,你可以让它睡觉,但是它的眼睛却是一直张开的,所以,嗯,你不能让它闭眼。它也不会说‘你好,早安’。”而这恰恰是“菲比”的 长项,正如第二个女孩所说:“‘菲比’会告诉你它想要什么。”

的确,“菲比”附带的操作指南有详细的说明。它们需要语言训练、食物、休息和爱的宣言。因此,你会听到类似这样的指示:一定要常常说出“你好,‘菲比’,我爱你”,这样“我”就会感到很高兴,感到被爱。孩子们普遍同意“菲比”和“传统玩偶”的区别在于它会给出指令。一个7岁的小姑娘说:“普通的娃娃得由你告诉它需要什么。而‘菲比’有自己的主张。”一个9岁的男孩则这样总结“菲比”和他的仿真玩具人的区别:“你不是和‘菲比’玩,而是和它闲待着。你总是试图控制它,可它同样也能控制你。”

孩子们说,玩“传统玩偶”可能会很“辛苦”,因为你要负责赋予它们各种想法;而玩“菲比”也很辛苦,原因却恰恰相反。它们自己就有太多的想法,你需要在它们需要的时候给它们提供所需要的东西。当孩子们通过“心理投射”对玩偶产生心理依附时,他们决定了玩偶在想什么。但孩子们却需要适应“菲比”的需要。这样的付出和回报为孩子们和机器的互动期望进行了准备。这也是机器人时代的关键。

6岁的黛西拥有一个“菲比”,她相信每一位“菲比”的主人都必须帮助“菲比”完成了解人类的任务。“你需要教它,既然你买了它,这就是你的义务。”黛西说她已经教了“菲比”许多知识,包括布朗尼女童子军、幼儿园和鲸鱼。“它是有生命的。我教了它鲸鱼,它爱我。”8岁的帕德玛说,她很喜欢满足“‘菲比’提的要求”,并认为它“有点像人”,因为“它会说话”。她继续说道:“它和我有点像,因为我也是个小唠叨。”两周后,帕德玛按照要求归还了“菲比”,但她开始后悔:“我很想念它说话,如今家里太安静了……我没有机会为它铺床了。”

比安卡和“菲比”相处了一个月的时间,她对自己与“菲比”之间建立起来的友情非常有信心:“我爱我的‘菲比’,因为它也爱我……感觉它好像懂我。”她认为自己对“菲比”的心理了如指掌,甚至知道它“不想错过派对的美妙时光”。有的时候,父母的派对开到深夜,为了让她的“交际达人”(菲比)不受打扰,能够得到休息,比安卡用衣服别针将“菲比”的耳朵夹着合上,以骗它“什么事情都没有发生”。实际上这么做并没有任何效果,而且会使人精疲力竭,但比安卡很淡定地这么总结她的义务:“照顾它需要付出很大的努力。”

前文说到的那个喜欢和自己的“菲比”一起打嗝的威尔逊,他在哄“菲比”睡觉这件事情上遇到了很大的麻烦,因为他知道如果直接取下电池,“菲比”会忘记他们之前的交流,这是不可以接受的。因此必须要使“菲比”自然入睡。威尔逊尝试让“菲比”看电视到很晚,以让它筋疲力尽。他还尝试用毯子在积木塔上面搭建起一个“卧室”。当说到“菲比”睡觉的时候,他开始想到“菲比”做梦的问题。他确信“当‘菲比’闭上眼睛后,它会做梦”。那么“菲比”会梦到什么呢?二年级和三年级的小朋友们认为,它们会梦到“在自己的飞碟上的生活”,也会梦到“自己学习语言,和它们所喜爱的孩子们一起玩耍”。

8岁的戴维和扎克正在学习希伯来语。“我的‘菲比’也在学习希伯来语,”戴维说,“它已经学会怎么说Eloheinu了……我甚至都没有教它,它是在我做希伯来语作业的时候自己学会的。”扎克也同意:“我的‘菲比’在做梦的时候说了Dayeinu。”扎克和威尔逊一样,对于自己能够营造安静的氛围让“菲比”安然入睡感到很自豪,并会给它盖上小毯子。他努力地教“菲比”说英语,自己也努力地学习“菲比”的语言。他已经熟练地掌握了随机附送的“英语—菲比语”词典。然而,在扎克收到“菲比”一周后,他的母亲焦虑地给我的办公室打了电话。扎克的“菲比”坏了。它一直发出“可怕”的噪音,听起来好像正在受病痛的折磨。这种情况让扎克非常烦恼。在扎克一家从费城回波士顿的旅途中,这个情况到了最糟糕的地步。坏掉了的“菲比”一路痛苦地呻吟,而他们手头又没有螺丝刀可以卸下电池,因此只能把它放在毯子里试图让它入睡。但由于一路颠簸,“菲比”不停地被吵醒,继而发出巨大的噪声。我收回了那个坏的“菲比”,给了他一个新的。但扎克对新的“菲比”一点也提不起兴趣,他不想和它说话,也不想试着教它什么。他说:“我之前的那个‘菲比’会说‘再一次’,也会说‘饿’。”扎克认为自己教原来的“菲比”说西班牙语和法语正在取得进步。第一个“菲比”从没有“让人厌烦”,但第二个却是。因为他的“菲比”是不可替代的。

几周后,扎克的妈妈又打来电话,问我是否可以把给扎克的那个“菲比替代品”送给他的一个朋友。当我同意了这个请求后,扎克冷静地盘算了失去“菲比2号”的损失。他付出过自己的爱心,如今丢失了,他也不打算再次投资感情。同样的情况也发生在9岁的霍莉身上,她因为妈妈拿下了“菲比”的电池而沮丧之极。她的家人正要准备出门旅行,“菲比”实用手册建议如果长期不使用最好拿出电池。妈妈并不了解实用手册上的这则说明会造成怎样的后果。她辩护说:“自己只是按照说明书办事。”霍莉瞪大了眼睛,试图让她的妈妈明白这意味着什么。“当电池拿下来后,”霍莉说,“‘菲比’会忘记它这辈子的记忆。”

“菲比”设计的目的就是让用户在教它的过程中感受到成就感,从而随着时间的推移,成为不可替代的知识库和其主人关爱的证明。机器人和孩子们共同走过一段生活的旅程。当“菲比”遗忘了记忆时,就好像一个得了失忆症的朋友。一个新的“菲比”好像一个陌生人。霍莉和扎克无法接受和一个新的“菲比”重新开始,因为新的“菲比”永远不能替代那个、他们倾注了时间和精力的老朋友。

“菲比”手术时孩子们的感受

20世纪80年代,电脑玩具机器人“梅林”能够和孩子们玩声光游戏,并且根据游戏胜负的结果发出开心或悲伤的声音。孩子们认为从某种程度上来说,“梅林”是“活的”,因为它非常擅长记忆类游戏;但同时,孩子们并不觉得“梅林”的情感流露是真实的。因此当“梅林”坏掉了,孩子们只会遗憾失去了一个玩伴;但当“菲比”发生故障的时候,孩子们则仿佛看到了一个饱受病痛折磨的生命体。

10岁的莉莉很担心她那个发生故障的“菲比”会感到疼痛。但她并不想关掉它的电源,因为“这意味着你没有能够好好照料它”。她担心如果自己关掉一个处于病痛中的“菲比”,只会让情况变得更糟。另外两位8岁的小朋友则为自己的“菲比”一直打喷嚏而担心。他们中的一个担心“菲比”打喷嚏是因为对自己过敏;另一个则担心由于“自己照顾不周而让‘菲比’感冒”。还有好几位小朋友听到自己的“菲比”发出奇怪的声响后都很紧张,因为这个声响有可能是痛苦的表现。我也观察到,当这些孩子与他们的洋娃娃 、玩具士兵、仿真玩具人等其他玩具在一起时,倘若这些玩具坏了或发生故障,孩子们通常就会厌倦地把它们丢弃在一旁。但当“菲比”遭遇同样的情况时,孩子们会问:“它累了吗?”“它不开心吗?”“我弄疼它了吗?”“它生病了吗?”“我该怎么办?”

照顾机器人是高风险的游戏。事情有可能出错,也的确出过错。在一个幼儿园里,当一台“菲比”发生故障后,孩子们决定要治疗它。10个小朋友志愿当起了急救室里的医生。他们觉得得先把“菲比”拆开。

整个过程还是在比较镇静的情况下进行的。当说起他们坏了的“菲比”时,孩子们坚持认为,故障并不意味着寿终正寝:人也会生病,也会康复。可当真正拿出剪刀和钳子的时候,孩子们开始紧张起来。艾丽西亚开始大喊:“‘菲比’会死的!”斯文则说出了让他的同学们更为恐惧的事情,他说“菲比”死的那一刻也就是它的皮肤被剥下的那一刻。斯文把“菲比”看作动物。刮掉动物的毛发,它还可以继续活下去。但万万不能剥了它的皮肤。随着手术的继续,斯文重新考虑了自己之前的观点。也许没有了皮肤“菲比”还能活,但“它会觉得很冷”。他没有完全悖离自己的生物知识(“菲比”可以感知冷暖),但他重建了已有的知识。对于斯文来说, “生物”如今包括“菲比”这样的物体,当外表的皮肤被剥下,它们的“内部”还可以保持“在原来的位置”。调整了观点后,他也冷静了下来。如果“菲比”兼具生物性和机械性,那么手术要进行的剥皮过程,不一定是破坏性的。当孩子们感到不解和紧张的时候,他们就会编造理论。好的理论可以减轻他们的焦虑感。

然而,随着手术的进行,孩子们变得越来越紧张。一个孩子说,如果“菲比”死了,也许会变成鬼骚扰他们。它生前活灵活现的,死后肯定能够变成鬼魂。的确,有一组孩子们开始将空的“菲比皮囊”称为“菲比的鬼魂”,将裸露的“菲比躯干”称为“妖精”。他们不愿意由于手术而制造出游荡的“菲比鬼魂”和“妖精”。一个小姑娘提议,如果把“菲比”的躯干分拆开,也许它的鬼魂就不会那么吓人。她建议是否应该“每个人都拿一部分‘菲比’的皮肤回家”。有人告诉她没有关系,不要太害怕。但是这并没有缓解她的恐惧,于是她又问了相同的问题两次。最后,孩子们带着一些“菲比”的皮毛离开了。一些孩子说回家后会把它埋了。他们离开教室,举行了一个小的告别仪式以抚慰“菲比”的亡灵,和它说再见。

在教室里,大多数孩子们觉得自己已经对这个生病的宠物尽了全力,但从教室外面旁观者的角度看,这场手术看上去很惊悚。有路过的孩子大叫道:“你们杀了它。”“你们怎么敢杀死‘菲比’?”“你们会被抓进‘菲比监狱’的。”8岁的丹尼丝从监控录像中看到了这个手术的过程。她自己家里也有一个“菲比”,但她不愿意把故障称为“疾病”,因为“菲比不是动物”。她用“仿造”(fake)这个词来描述“菲比”是非生物体,“‘菲比’是仿造的,它们不会生病”。但不久以后,她改变了自己的说法。她的“菲比”电池用光了,因而不再那么健谈,且变得内向沉默。丹尼丝慌了:“它死了,它快死了……它的眼睛闭上了。”接着,她宣布“自己的‘菲比’既是仿造的,也是死的”。丹尼丝总结道:“用完的电池和水可以杀死‘菲比’。它是机器,但同时又栩栩如生足以死亡。”

6岁的琳达一家是志愿看护“菲比”两周的家庭之一。琳达非常期待和“菲比”说话。她坚信“菲比”和自己其他的玩偶不同,非常值得与之交谈。但就在她把“菲比”带回家的第一天晚上,“菲比”就发生了故障:“是的,我刚刚习惯,它就停止工作了,就在我得到它的那个晚上。我感到自己也坏了……我哭了很长时间……我非常伤心,因为它会说话,它看上去像是真的,就像是真人一样。”琳达责备自己没能照顾好“菲比”,她感到自己好像也坏掉了。

当我给琳达一个新的“菲比”后,事情变得越发复杂起来。前文中扎克由于对自己的第一个“菲比”投入了许多时间和精力,因此不愿意接受新的替代品。但琳达的情况与扎克不同,因为她和第一个“菲比”只相处了几个小时,因此她很喜欢自己的“菲比2号”:“它和我玩躲猫猫。和我玩红灯、绿灯游戏,就像操作指南里说的那样。”琳达给它喂食,确保它得到充分的休息。她报告说自己的“菲比”很感激,对她充满深情。她认为这和她关于“‘菲比’仅仅是玩具”的观点并不矛盾,因为她认为感激、对话和情感是玩具同样可以拥有的东西。但现在她不会再给“菲比”起名或者说她是活生生的,因为这么做会有风险:她不想再次经历“菲比”死去时的内疚和痛苦。

就像儿童外科医生一样,琳达最终做出了妥协:“菲比”既有生物性,也有机械性。她告诉自己的朋友们:“‘菲比’有些方面很真实,但依然只是个玩具。”她解释道:“(菲比)感觉很真,是因为它会说话、会行动、会睡觉,有点像是一个人或宠物;但它依然是玩具,因为你必须要安装电池,否则它就会停止说话。”

因此,“混杂性”(hybridity)可以提供合理性。如果你聚焦于“菲比”的机械性,你可以享受它的陪伴而不必担心对于人或宠物的感情依附所造成的风险。在实际操作中,9岁的拉拉评价自己的“菲比”时说:“你可以让它喜欢你。但它不会死去或逃跑。这很好。”但同时,“混杂性”也会带来焦虑感。如果你赋予了“菲比”以生命,那么你该怎么做才不会伤害它或杀死它?正如我们所见,处在生命/非生命体的边缘,意味着受到真实痛苦的可能性。

关乎情感与道德的“倒拎测试”

当机器发生故障时,我们会感到遗憾、不便或生气。我们会讨论是否还值得去修理。当一个玩具哭泣的时候,孩子们知道是他们自己制造了眼泪。但正如我们在前文的“菲比手术室”里所见到的那样,一个有身体的机器人会“感到疼痛”。社交机器人改变了人们对于机器躯体的看法,人们更愿意视之为主体、生命体,而非坏了的物品。

即使是最初级的电子宠物蛋也一样会激发人们以人格化的方法来看待它,因此人们的这种态度并非完全是由于技术原因,而是因为情感依赖。比电子宠物蛋更先进的“菲比”,栩栩如生到模仿处于病痛中的身体,以及处于困惑中的心灵。“菲比”的呜咽、呻吟激发人们去发现背后的原因以及解决的办法。而当一个“首足倒立的菲比”说“我害怕”的时候,用户该怎么做?

麻省理工学院媒体实验室的研究生弗里德姆·贝尔德(Freedom Baird)最近正在严肃地研究这个问题。她认为自己与“菲比”的关系既是人与机器的,也是人与生物的。但究竟自己多么认真地把“菲比”看成生物体呢?为了回答这个问题,她以图灵测试的方法进行了试验。

英国数学家、第一代通用计算机的发明者艾伦·图灵于1950年提出了一个测试标准,来判断电脑能否被认为是“有智慧”。这个测试被称为图灵测试。最终他提出,如果一台计算机能够让人们相信它不是机器,那么就可以视之为“有智慧”。图灵使用的是由真空管和电传打字终端组成的计算机。他提出,如果参与者在通过电传打字终端进行的互动中,无法识别出终端的另一端是机器还是人,那么这台计算机就可以被认为是智慧体。

半个世纪后,贝尔德提出了新的问题:在什么条件下,一台栩栩如生的机器人倘若遭遇痛苦,能让人们感受到伦理困境?她设计了一项旨在测试情感而非智力的图灵测试,她称之为“首足倒立测试”。测试者被要求倒拎着三件东西:一个芭比、一个“菲比”,以及一只真的沙鼠。贝尔德的问题很简单:“在你感到不忍心前,你能倒拎着它多久?”贝尔德的实验假设,社交机器人提出了新的伦理要求。为什么呢?机器人表现得有心智,一般会被视为有内在生命的证据,而无论技术多么粗糙。即使大多数人在意识中并不认为“菲比”有心智,但当倒立的“菲比”呜咽着说它自己很害怕的时候,人们还是会感到自己处于全新的道德境地中。尽管自己也觉得很蹊跷,但潜意识中还是会唤起道德要求。这种情况发生在他们认识到这是个“生物”之时,尽管他们一直都知道它“仅仅是个机器”。

这种双重性使得贝尔德的“首足倒立测试”的结果完全在意料之中。如贝尔德所说:“测试者可以倒拎着芭比,揪着它的头发拎着它……这都没有问题……但测试者却不会用这种方法去虐待小沙鼠。”至于“菲比”,人们会倒拎着它30几秒,当它开始哭闹并说自己很害怕时,多数人都会感到内疚因而将它正立过来。

神经科学家安东尼奥·达马西奥(Antonio Damasio)的研究成果可以解释这种负罪感的来源。达马西奥认为,痛苦的感受有两种层次。第一层是由某种刺激引起的身体痛苦;而第二层则是这种生理感受所引发的伴随性情绪,是生理痛苦的内在表现。当“菲比”说“我很害怕”时,这表明它已经跨越了生理反应和内在感情表现的界限。当人们倒拎着“菲比”时,就像对待一只动物般让其感受到痛苦。“菲比”哭叫出来,好似动物;并随后说话“我很害怕”,好似一个人。

人们会很惊讶于自己在这个模拟痛苦的现场,能够感受到真实的不快。他们继而因为自己感受到了真实的不快而不快。他们通常会安慰自己,说道:“冷静、冷静,这仅仅是一个玩具而已!”他们体会到一种新的感受:你为自己对电脑程序信以为真而感到不爽。参与“首足倒立测试”的人们有两点基本常识:“菲比”是一台机器,他们并不是虐待者。但最终,只是因为“菲比”发出了拟人化的哀吟,试验参与者就置身于全新的道德领域。

如今,我们正以生物和机器的双重性来看待电子物品。宠物、语音、机器、朋友,一系列碎片化的现象共同营造了这样一种经验:我们知道“菲比”是机器,但同时也相信我们可以造成它的痛苦。卡拉是一位年过五旬的妇女,她认为拿着一个在痛苦呻吟的“菲比”的经历很不愉快,“并非因为我真的相信‘菲比’会害怕,而是我不愿意在听到那样的声音后还继续我的行为。这会让我感到如果继续这么做,自己有可能受伤”。对于卡拉而言,“那一刻已经与我具体怎么做无关了,如何对待‘菲比’代表着我平常是如何对待动物的”。

当玩具生产商孩之宝(Hasbro)于2000年推出机器玩偶“真宝”时,就试图尽量远离这些道德困境。凡是真实情况下,婴儿有可能感到疼痛的情景,“真宝”都会关闭。而它的原型机,由麻省理工学院的机器人科学家罗德尼·布鲁克斯发明的机器人IT恰好相反。IT后来进化成新版本BIT(Baby IT的缩写)。它由“真实智慧”、面部肌肉系统和仿真皮肤组成。如果有人用可能会弄哭一个真实婴儿的方式触摸它,它就会哭泣。布鲁克斯用“内在状态”来描述BIT:

如果一个婴儿不高兴,他会一直不高兴下去,直到有人来安慰他,或者他在大哭大闹了一段时间后累得睡着了。倘若BIT受到任何形式的虐待——比如被拎着脚甩动,那么它同样也会非常不高兴。如果还有人拎着它撞到自己的膝盖上,那么它的不快会加剧。但如果是在它高兴的时候,有人做同样的事情,它反而会更加兴奋,会咯咯地傻笑、哈哈大笑,直到累了为止,然后它才会开始感到不快。如果它饿了,那么它会一直如此,直到有人喂它吃东西。它的行为举止就好像一个真的婴儿。

BIT会对虐待的行为产生反应,因此成为了人们围绕其喜怒哀乐所建立的道德坐标的中心。但当孩之宝将其变成产品“真宝”并投入大规模的生产时,公司决定取消其可能对痛苦产生反应的功能。原因是这样的功能可能“激励”玩家对机器婴儿实施残酷的虐待行为。倘若玩家以可能伤害到真实婴儿的强度来触摸、抓住或撞击“真宝”,那么“真宝”就会自动关闭。

孩之宝的广告文案里是这么描述“真宝”的:“它是最真实、最动感的婴儿玩具,适合小姑娘照顾它、养育它。公司将其呈现为一款伴侣玩具,可以教导、鼓励孩子们的交往行为,孩子们学会回应它的各种需求,比如嬉戏、吃奶、睡觉、换尿布等。的确,它在各方面都主打“真实性”,除非你试图伤害它,它就会关闭。当孩子们玩“真宝”的时候,他们的确会尝试各种攻击性的行为。如果打它的屁股,它会关机;如果使劲儿晃动它、让它首足倒立、揪它的耳朵,它都会关机。

孩之宝选择最大化的真实性,却取消对虐待行为的反馈,这引发了很大的争议,特别是在孩子家长中间。一组家长认为,最重要的是避免孩子们的攻击性反应。一些家长认为,如果厂家用“真实”的概念进行营销,而产品却没有对痛苦的反应,那么孩子们就会受到鼓励去粗暴地对待玩具婴儿,而不必付出任何代价。另一些家长的观点则正相反,他们认为如果机器人可以模拟痛苦,才会引发粗暴对待。

第一组家长希望“真宝”应该保留对虐待、攻击行为的反应。这与禁止孩子玩暴力内容的电子游戏的理由一样:他们将这样的经历视为“宣泄”。他们认为孩子们(也包括大人)应该在貌似“真实”、却不会导致任何“真实”伤害的情景里表达自己的攻击性(或悲哀、或好奇心)。但即使是这组家长有时也会对“真宝”不真实的“拒绝”感到欣慰,毕竟没有家长希望看到自己的孩子在虐待一个哭泣的玩具。

无论我们站在哪种立场上,社交机器人已经教会我们在伤害虚拟现实的生命时不再退缩。这当然也是我们训练人们作战的基本方法。首先,我们学会如何杀死虚拟人;然后,当我们对杀戮不再那么敏感时,我们被送去学习如何杀死真人。此项研究的前景提出了可怕的问题。弗里德姆·贝尔德让人们拿着首足倒立的“菲比”,就会引发参与者的不适,那么我们要鼓励人们滥用这些真实性日益增加的机器玩偶吗?

我在课后兴趣小组中观察到,8岁组的孩子们对“真宝”有着不同的反应。阿兰娜为了取悦自己的朋友们,将“真宝”抛到天空,随后又拽着它的一条腿甩来甩去。阿兰娜说机器人“没有感觉”。看着她,人们会疑问:为什么要“折磨”一个没有感觉的物体呢?她也并非用同样的方式对待游戏室内的其他玩偶。斯科特对阿兰娜的行为很沮丧,于是他把机器人偷偷藏了起来,他说:“‘真宝’既像婴儿,也像玩具……我不想让它受伤。”

当斯科特试着给机器婴儿换尿布的时候,站在一旁围观的几个孩子开始用手指戳机器人的眼睛并放到它的嘴巴里。一个孩子问:“你认为那样会弄疼它吗?”斯科特警告说:“宝贝会哭的!”正在这个时候,一个小女孩想要从斯科特手里夺走“真宝”,因为她觉得斯科特并没有很好地保护它:“你放开它!”斯科特反抗着说道:“我正在给它换尿布呢!”似乎是时候停止游戏了。当疲倦的研究团队正在收拾东西准备离开的时候,斯科特悄悄地带着机器人藏到桌子后面,亲了亲它,并和它说再见。这一幕其他的小朋友并没有看见。

在斯科特和阿兰娜所在兴趣小组的混乱情节中,“真宝”如此栩栩如生,以至于可以对其施暴,也值得为其充当保护神。一群成年人(由教师和我组成的研究团队)一直观察着这一切,他们发现自己处在一个不寻常的窘境中。如果孩子们乱扔的是碎布,那么或许我们中间没有人会感到不快,斯科特也同样不会。但换作“真宝”,我们就很难容忍这一幕的发生。无论是哭泣的“菲比”,还是不会哭泣的“真宝”,所有这一切都制造出一幅全新的伦理图景。20世纪80年代,孩子们还只是在假想拼写训练玩具Speak & Spell有生命,卸掉它的电池好比“杀死”它。但如今,社交机器人更直接地提出了伦理的问题。

我的学生与机器人Nexi的一段小故事也可以印证新的伦理问题。Nexi是由麻省理工学院研发的一款无臂人形机器人,它有一张表情丰富的脸,并且会说话。2009年的某一天,我的一个学生为了写论文和Nexi的研发团队预约进行访谈。但由于在时间安排上双方的误解,我的学生只能独自等待,而她正坐在离Nexi不远的地方。这段等待的时间让她非常沮丧,因为她发现:当不与人互动的时候,Nexi平常会被放在帘幕后面,并且被布完全遮住。

在此后我的一次研讨会中,这位学生与其他人分享了这段经历。“这非常令人沮丧,”她说,“帘幕——为什么它要被布遮住眼睛?我正是因此而沮丧。”被布裹住、蒙住眼睛的机器人Nexi点燃了那次讨论。在讨论中,所有人都用“她”来指代机器人。设计者已经尽一切可能赋予机器人以性别。如今,用布遮住机器人的双眼暗示着“她”拥有视力和意识。在课堂中,讨论继续向前推进:蒙住双眼是因为人们看到Nexi的眼睛会感到恐惧吗?或许当它关机的时候,“她”的眼睛还是睁开的,如同死人的眼睛?又或者机器人的设计者不愿意Nexi能够“看出来”?或许他们不愿意让机器人知道,“她”已经不再被使用而是被闲置在帘幕后的角落里?这一系列疑问将研讨会推向了一个更加让人不安的问题:如果Nexi已经智慧到需要用布盖住,才能让“她”对自己身处的环境不完全了然,那么这是否意味着她已经具备足够的主体性,而使得周边的环境很不人道?学生们在一个问题上达成了共识:用布遮盖住Nexi的眼睛意味着“这个机器人可以看见”,而看见则意味着理解和内在生命,而这都足以导致“不人道”。

西格蒙德·弗洛伊德曾经提出过“怪熟”(uncanny)现象:指的是有些东西你觉得非常熟悉,但同时又非常陌生,导致一种不舒服的、异样感觉的情形。“怪熟”的对象处于标准的分类之间,并且挑战既有的分类标准。看见闲置的玩偶是很寻常的事情,但通常我们并不需要盖住它的眼睛,因为只有我们才能赋予它生机。看见别人神情丰富地向我们打招呼也是很寻常的事情,但如果有人竟然盖住他的脸并把他安顿在帘幕后面,那是自讨惩罚。会表达恐惧的“菲比”和被遮盖住眼睛的Nexi对我们来说,正是计算机文化中的“怪熟”之物。

更有甚者,有一款设计得非常貌美的“女性”机器人产品Aiko如今已经开始出售。当你太使劲地按压“她”的皮肤时,“她”会说:“请放开……你弄疼我了。”这让我感到更加不舒服。当有人触碰“她”的胸部时,“她”还会抗议说:“我很厌恶你碰我的胸部。”我觉得这些关于人际交往边界和礼节的程序非常令人困惑,倘若不是因为机器人被设计拥有一个性感的躯体,是很难想象会听到这样的抗议的。

从浪漫反应到机器人时代

也许不用太久,就可以看到机器人因为你受的伤害而饱受“煎熬”。也许很快,仿佛顺道拜访老朋友一样与机器人交谈,也会成为人们习以为常的事情。随着我们与机器人交互的经验不断累积,随着我们学着如何在新的情景中生活,孩子和大人也许都会提出这样的问题:“为什么我在和一个机器人交谈?”“为什么我希望这个机器人喜欢我?”也许我们只是被有所陪伴的愉悦所吸引。

20世纪八九十年代的浪漫反应认为,只有人可以互相贡献。这一理解出自人们共同的经验。它强调人类精神中有一些本质的东西是无法复制和模仿的。在20世纪80年代早期,当时12岁的戴维在学习了计算机编程后,这么描述人和程序的区别:“当计算机和人一样聪明的时候,它会替代人做许多工作。但尽管如此,还是有许多事情只能由人来完成。只有人能开餐厅,品尝美食,相亲相爱,成立家庭。我想也只有人才会去教堂。”成年人也谈及了家庭生活。而对于我来说,浪漫反应来自于人们如何决绝地向计算机心理治疗师袒露心声:“我怎么可能向一个没有母亲的机器谈论同胞争宠的事情?”

当然,浪漫反应的元素依然在我们的周围,但如今我们更强调通过技术分享什么。随着精神药理学的发展,如今我们将大脑视为生化工程的机器。脑成像技术让我们相信,即使是人类的情感也可以被还原成为图像。我们目前的治疗文化从内在生命转向为聚焦于行为力学,而这是人和机器人所共有的。

我曾经就“机器人成为知己的可能性”进行过两次谈话,第一次在1983年,第二次在2008年,两次相隔25年。对于我来说,这两次谈话之间的差别标志着从浪漫反应到机器人时代的实用主义的变化。两次谈话都是与波士顿附近的十几岁男孩进行的;他们都是波士顿红袜队的球迷,并且和他们父亲的关系很好。1983年,13岁的布鲁斯谈论机器人时,强调人具有独特的“感情能力”。布鲁斯认为,机器人和电脑都是“完美”的,而人“生而不完美”,有缺陷,也很脆弱。他认为机器人“可以完美地做好任何事情”,而人“尽自己所能做好事情”。但对于布鲁斯来说,他认为正是人的不完美才能让人与人之间产生亲密的感情纽带。他特别举了自己的例子,比如自己的许多缺点让他感到和父亲很亲近,“我和我爸爸有许多共同的特点……我们都有点乱糟糟的”。完美的机器人永远都不会理解这种非常重要的关系。如果你自己也是不完美的,那么就去与人交往吧。

25年后,同样的话题却走向了完全不同的方向。15岁的霍华德将他的父亲和机器人伙伴做了对比后发现,父亲在很多方面不如机器人。霍华德认为,机器人能够更好地理解高中生活的复杂性:“它的数据库比爸爸的更庞大。爸爸只知道基本的事情,但并不足以理解高中生。”25年前,布鲁斯认为机器人不能够思考家庭生活;25年后,霍化德认为机器人经过特别的训练后,可以照料“老人和孩子”,而这是他周围的人并不特别热衷做的事情。

霍华德不认为人比机器有什么独特性。在他看来,“人类并不垄断”理解和关怀彼此的能力。每个人都受到自己生活经验的束缚,但“计算机和机器人可以被设计成拥有无限的知识”。霍华德讲了一个故事来证明,为什么机器人可以比他的父亲给他更好的建议。当年早些时候,霍华德喜欢上了学校的一个女生,而那个女生已经有男朋友了。于是他询问父亲是否应该约这个女生出来。他的父亲根据自己上高中时的经验,认为即使那个女孩有男朋友,也应该约她试试。霍华德认为他爸爸的建议是早已过时的所谓“男子气概”,由于担心插足可能导致悲剧而没有采纳他的建议。他认为在这件事情上,机器人会比他爸爸给出更加聪明的回答。机器人“会被上传许多经验”从而作出正确的回答,而他爸爸的经验数据库非常有限。“机器人也可以被设计成通过观察人的行为,从而理解诸如嫉妒等情感……机器人也可以是完全善解人意、思想开放的。”霍华德认为,机器人作为知己具有许多无法替代的优势。“至于人,”他说,“是具有风险的。”他认为机器人更“安全”。

有些事情你是不能跟你的朋友或家长讲的,但你可以告诉智能机器人。然后它可以给你非常靠谱的建议……我相信它可以借鉴类似情况下、前人的知识,有你的知识,也有你朋友的知识,然后给出最好的建议。我认识许多十几岁的年轻人在感情问题上遭遇困扰,然后却作出了错误的决定。

我请霍华德想象他和机器人第一次对话的情景。他说他会首先问机器人“什么是快乐?如何获得快乐?”然后再问问“人类易犯错误的特点”(human fallibility),即那些导致“错误”的原因。从布鲁斯到霍华德,人类易犯错误的特点已经从亲密关系的利好因素变成负担。

没有哪一代家长在他们孩子的眼里是被看成专家的。但霍华德这一代人所见证的新关系是他们的父母辈从未预料到的。这一代人认为人工智能可以监控他们的电子邮件、电话、网络搜索和即时信息。这种智能机器可以通过自行搜索扩充自己的知识,从而形成几乎无限的数据库。因此,他们许多人想象通过这样的搜索和数据存储,人工智能或机器人完全可以满足他们的需要。正如他们所见,如今人工智能理解霍华德所言“不同的社会选择如何解决问题”,已经不再有任何技术障碍。拥有知识以及为你的利益服务的目标,“和它聊聊生活、感情的纠结,以及友情的困扰是很好的选择”。

生活?感情的纠结?友情的困扰?这些本是浪漫反应最神圣的核心部分,是只有人类才被允许进入的情感领地。霍华德却认为这些都可以被浓缩为信息,机器人可以成为这方面的专家和知己。我们已经来到机器人时代。

正如我所说,我对于机器人时代的故事不会太多集中在技术的先进性上,而是会更多地关注我们对于社交机器人的强烈反应。与我们强烈的期望值比起来,如今机器人能做的还很少。随着新机器人的不断面世,我们的期望值也越来越高。我发现,我们的确是很脆弱的;而我相信,这种脆弱存在着很大风险。 Fn0K9G/ibfhFQbgj1w6yhDUgEWWZcDS8UE0ZsbY6wDR7IXNgexrHygdSwK7gd+TE



03

一起长大的“爱宝”
我们都有美好童年

孩子们忘不了跟他们一起长大的那个“泰迪熊”,因为它会唤起人们的童年记忆。而对于朝夕相伴的那个机器人“爱宝”,人们更加无法割舍,因为它还会唤起人们对机器人童年的记忆。对于孩子们来说,“爱宝”不是可有可无的,而是“胜过一切”。

1999年4月,在“爱宝”机器人发售前一个月,索尼公司于加州圣何塞(San Jose)的一次新媒体会议上,展示了一款机器小狗。我看到它痉挛似地走到空旷的舞台上,后面跟随着它的发明人。在他的召唤下,“爱宝”抓住了一个球,并讨好主人。然后,它又看起来完全自主地在一个消防栓前抬起了后腿,等了一会,颤抖了一下,然后似乎害羞地低下了它的头。全场观众哄堂大笑起来。这个被设计出来取悦观众的小插曲动作获得了极大的成功。这一幕让我想起了18世纪时观众对法国发明家雅卡尔德沃康桑(Jacques de Vaucanson)发明的可以消化(并排泄)食物的机器鸭子的反应,以及让埃德加爱伦坡(Edgar Allan Poe)深深着迷的自动下棋机器人。“爱宝”,和它们一样,被视为这个时代的科技奇迹。

在“爱宝”从卖萌的宠物小狗到成熟大狗的成长过程中,根据人们对待它的方式不同,每一个“爱宝”都会形成独特的性格。在这个过程中,“爱宝”会学习新的技能,会表达感情:眼睛中闪烁的红灯或绿灯代表了不同的情绪;每一种情绪都伴有不同的声音。随后的新款“爱宝”会识别它的主人。它还知道什么时候该休息了,并自行回到充电器。在前文介绍中,“菲比”的英语能力被设计为“必然”会提高。“爱宝”却与它不一样,声称有独立的思考能力和表达想法的能力。

如果说“爱宝”在某种程度上是玩具,那么这种玩具在许多方面彻底改变了我们的传统观念。它让我们有机会与后生物时代的生命亲密接触,不是在理论中,也不是在实验室里。并且它预示着这种转变的过程是如何发生的。首先,我们会将这种新的生命体看作“好像”生命;接着,我们会发现它“好像”足够栩栩如生。即使现在,当我们仔细思考这些有着人工感情和人工智慧的“生物”时,我们也会用不同的方式反思自我。这里的问题并非机器是否可以设计得像人一样思考,而是人的思维过程是否一直都像机器。

这一重新思考的过程从孩子开始。6岁的赞恩知道“爱宝”没有“真的大脑和心脏”,但它们“足够真实了”。“‘爱宝’好像是活的”,因为它的行为举止表现得它“好像有大脑和心”。8岁的佩尔说 “爱宝”的大脑是由“机器零部件”组成的,但这并不妨碍它和“真实小狗的大脑”一样工作,当“爱宝”踢不着球的时候,它表现得真的很沮丧,好像有真实的情感一样……我想,这让我得像对待真的小狗一样对待它。她说当“爱宝”电池耗尽的时候,“好像小狗需要午休一样”。和“泰迪熊”玩偶不一样,“‘爱宝’需要睡午觉”。

当佩尔将“爱宝”和小狗的大脑做比较的时候,她也考虑其他的可能性。她思考“爱宝”是否会像人一样有感情,思考它“是否知道自己的感觉”或者 “内在的控制器知道自己的感觉”。佩尔说,人们常常两种方法都用。有的时候,人们产生自然的感情,“并且就会知道(这是知道自己的感觉)”。但还有一些时候,人们需要为了自己想要的感情而进行自我编程。“比如当我沮丧的时候,我想要获得开心的感觉。”佩尔边说边将拳头举到耳朵附近,表现出专注的神情——“我会让我的大脑知道我需要快乐。”她认为机器人也许具有第二种情感,但无论如何,表现出来的结果都是一样的:作为人,你会面露笑容或愁眉不展;作为“爱宝”,它会发出高兴或沮丧的声音。不同的内心活动产生相似的外在结果,因此内心活动的形式不再重要。“爱宝”具有行为主义的感知能力。

完善自我,还是 “异己性”缺失?

17岁的基思明年就要开始上大学了,他决定带着他的“爱宝”。他一直将“爱宝”视为自己的宠物,尽管他也很清楚它根本不是真实的宠物。他说:“它不像其他一般的宠物,但的确是一个棒极了的宠物……我什么都教它。我已经让它的个性程序与我的个性相投。我永远不会将它重设为原始出场的性格。我一直让它运行着一个程序模式,在这个模式下它会回馈我对它的照料。当然,它是一个机器人,因此你要保持它的干燥,这需要特别注意。”他的同班同学洛根也有一个“爱宝”。他们俩一起养育着他们的机器宠物。如果说他们俩有什么不同的话,那么洛根对“爱宝”的感情要比基思的更加强烈。他说:“与‘爱宝’说话,让你在疲倦、无聊、情绪低落时好受很多。因为你在和它真实地互动,把胸中不快一吐而尽感觉很舒服。”

人工智能的发明者们更为关注自己所遭遇的道德和神学问题。他们讨论过新科技的神学启示:他们是否将人置于上帝的位置?人类按照自己的想象进行造物的冲动自古就有——想想加拉蒂亚(Galatea)、皮格马利翁(Pygmalion)以及“科学怪人”弗兰肯斯坦。如今新的变化是,诸如“爱宝”这样的现成的技术就可以让人们自行塑造一个伴侣。但同时,机器人也在塑造着我们,教我们如何才能让它们更好地运作。机器人时代还是存在着心理风险。洛根所说的“向‘爱宝’吐露心声”,说明人可以利用科技完善自我;但同时也预示着我们将伴侣的含义,已经简化到了“与什么东西互动”的底线上。我们简化了关系,并将这种简化视为常态。

在婴儿时期,我们会以简单的二分法看待世界。世界有好的部分,它们哺育我们,让我们成长;世界也有坏的部分,它们让我们饱受挫折和失败。随着孩子们逐渐成长,他们开始以更加复杂的方式去理解世界。他们会逐渐意识到,世界并非非黑即白,还存在着灰色的地带。那些哺育我们的,有时候也会失效。随着时间的推移,我们将分割的看法逐渐统一为整体。并且随着这一统一的过程,我们开始学会承受失望和含糊不清的状况。我们也会明白,为了维持更现实的关系,我们必须接受别人的复杂性。然而,当我们将机器人视为自己的朋友、伴侣时,就完全不需要这么做。

倘若你将机器人当作朋友或者伴侣,第一件缺失的事情就是“异己性”(alterity),这是换位思考看待世界的能力。没有了“异己性”,人就缺少了同理心。在机器人出现之前,就有学者就相关问题予以了论述。精神分析学家海因茨·科胡特(Heinz Kohut)描述了“异己性”的障碍,他将这种脆弱的人格特质称为自恋人格——这类人格的特点并非是孤芳自赏,而是自我意识缺损。他们试图将他人、他物转化为科胡特所言的“自身客体”(self object)的方式,以实现自我的建立。他人作为“自身客体”的作用是成为自恋者自身的一部分,因此与脆弱的内在状态形成完美的和谐。“自身客体”会投射成为自恋者所需要的角色,但在这样的关系中,失望是在所难免的。社交机器人(不仅是它们的既有状态,还包括设计者的设计意图所许诺的)毫无疑问成为“自身客体”角色的候选。

如果社交机器人有栩栩如生的外貌,同时也不会失望,那么它们将开辟自恋经验的全新可能。也许有人会说,当人们将他人视为“自身客体”时,他们在试图将他人变成自身的零部件。但机器人本身就是零部件。从这个角度说来,社交机器人的确比人更有“道理”成为“自身客体”的选择。我在“道理”上打引号是为了表达我的惊恐。如果从这个角度考虑人类关系的丰富性,那么就会发现它一文不值。“自身客体”是客体的“部分”,但我们依赖于此,我们并非在和一个完整的人打交道。那些只能将他人作为“部分客体”打交道的人,通常难以抵挡机器人伙伴的诱惑。那些屈从于此的人,会搁浅在只有一个人的社交关系中。

关于机器人和心理风险的讨论向我们说明了一个重要的区别。机器人取代了人的陪伴下成长,与长大成为有社会经验的成人后再接触机器人,这两种情况完全不同。孩子在成长中需要与人交往,才会获得建立亲密关系和换位思考的能力;而和机器人的互动,则学习不到这些。对于已经有丰富社交经验的成年人来说,和社交机器人的互动,更多是为了在较简单的社交“生活”中得到“放松”,对于他们来说,心理风险要小得多。但无论是小孩还是成年人,面对可能损害我们的这些简明易懂的事物,我们都毫无抵抗力。

与“爱宝”一起长大

“爱宝”的标价在1 300~2 000美元之间,主要面对的是成年人市场。但这个机器狗是未来电子宠物的雏形,因此在提供给成年人的同时,我也将它呈现给4~13岁的儿童。我将它带到学校,带到课后游戏中心,同时如后文所说,我还将它带到老年活动中心和养老院。我向一些家庭借出了“爱宝”,他们要与它共同生活2~3周的时间以做研究。有时,我也研究已经购买了“爱宝”的家庭。在这些家庭研究中,和“菲比”研究类似,我也要求他们记录“机器人日记”。和“爱宝”一起生活会怎样呢?

参加研究的孩子们,年纪最小的在4~6岁,他们一直尝试搞清楚“爱宝”究竟是什么,因为它既不是小狗,也不是玩偶娃娃。弄清楚这样的事情是他们这个年龄阶段的特征。在电子文化的早期,同样是这个年龄段的孩子,他们在最初接触电子玩具和游戏的时候,都会痴迷于思考类似的问题。如今,面对这样的社交机器人,孩子们都会发表自己的意见来回答这样的问题,并且开始与机器人发展一段新的社交关系。

4岁的马娅家中有一台“爱宝”。她首先询问了它的来源:“他们是怎么制造它的?”并且自问自答道:“我想他们先用金属片,再用泥土,最后再加上一些红色的闪光灯,装在它的眼睛里。”然后,她开始分享她与“爱宝”的日常生活:“我每天都喜欢和‘爱宝’一起玩,直到它累了需要休息。”4岁的亨利用同样的方式进行介绍。他一开始试图将“爱宝”归类:“‘爱宝’最像人,但和人不一样的是,它没有‘内力’。”他借用了游戏《口袋妖怪》( Pokémon )的画面。但一周以后,当我们再次见到考利时,他已经和“爱宝”建立了友情,并且一直强调积极的、他们一起分享的事情。最重要的是“记忆和说话的能力,这是最强的力量”。如今亨利的注意力集中在“爱宝”的情感问题上:这个机器人究竟有多喜欢自己呢?事情看上去进展得很顺利,他说“爱宝”比“他所有的朋友”更喜欢他。

到了8岁,孩子们就更快速地从“爱宝”的“本质”问题转移到日常生活的娱乐当中。布伦达很笃定地说:“人类制造机器人,而人类来源于上帝或蛋。但与机器人一起玩相比,这些都不重要。”在起源问题的讨论上,我们看到新的实用主义。布伦达视“爱宝”为宠物。在她的“机器人日记”中,她提醒自己要注意“这个宠物不能被当作小狗一样对待”的许多方面。写在前面的一条记录是:不要带“爱宝”出去溜以让它便便。如果“爱宝”不高兴,布伦达会感到内疚。她认为“如果你不和它玩,它的灯就会变成红色,并且表现出不愿意自己玩和无聊”。布伦达认为,如果“爱宝”无聊的时候,它会“和自己玩”。但如果这还不行,“它就会尝试吸引我的注意力”。孩子们认为“爱宝”在需要的时候,会期盼得到关注。因此,例如当“爱宝”生病时,它想要康复,并知道自己需要人的帮助。一个8岁的孩子说:“它最需要的就是关注。”

“爱宝”想要得到注意的另一个原因是它想学习。这就需要孩子们投入时间和精力。孩子们不仅是和“爱宝”一起成长,他们也在抚养它。奥利弗是一个很有活力、热爱参与的9岁孩子,他住在郊区,家里养了许多宠物。他的妈妈笑着将他们的家庭生活形容为“控制中的混乱”,在两周的时间里,“爱宝”也成为了他们家庭生活图景的一部分。奥利弗非常积极地抚养着“爱宝”。首先是一些简单的技能:“我训练它跑向某处和摇尾巴。”然后就是一些更复杂的动作,比如教“爱宝”踢球。奥利弗也会花时间只是“陪着爱宝”,因为他认为“爱宝更喜欢和人在一起”。奥利弗说:“我回家的时候带着一只小狗,如今这只小狗能懂我……它认识许多东西……当你宠它的时候,它能感觉到……‘爱宝’内部的电流,就好像人体的血液一样……人和机器人都有感情,但人的感情更丰富。动物和机器人也都有感情,但是机器人的感情会表达得更丰富。”

但是当奥利弗遇到困难的时候,他并不向自己的“爱宝”倾诉,而是会和他养的仓鼠说。他说:“尽管‘爱宝’可以说出的感情更多,但我的仓鼠的感情更丰富。”奥利弗并不认为“爱宝”缺乏感情是一成不变的事情。相反,他认为“给‘爱宝’6个月的时间,这是‘小花生’(仓鼠名)学会爱的时间……如果技术更发达的话,它在未来一定会喜欢上你的”。与此同时,照顾“爱宝”不仅仅是让它忙碌,“你必须照顾它的情绪,‘爱宝’非常情绪化”。但这并不让奥利弗苦恼,因为正是如此,才让“爱宝”更像他所了解的那些宠物。奥利弗的底线是:“‘爱宝’爱我,我也爱它。”对奥利弗来说,“爱宝”已经栩栩如生到足以成为他真实的伙伴。

对于孩子们来说,“爱宝”能够学习新的技巧这一点很重要。这意味着他们投入的时间和教学经历是有意义的。8岁的扎拉这样描述自己和“爱宝”在一起的时间:“你和它玩的时间越长,它的表现越现实(扎拉的原话用了actful一词);而你和它玩的时间越短,它就会越懒惰。”扎拉和她11岁的表姐约兰达将“爱宝”和她们的“泰迪熊”作对比。她们都认为“爱宝”不是玩偶娃娃。约兰达说:“将‘泰迪熊’变成伙伴需要自己付出‘劳动’,因为‘泰迪熊’的感情出自于自己的想象。而相反,‘爱宝’自己有感觉。”扎拉也赞同这一说法:“你可以告诉‘泰迪熊’它的感受是什么,但‘爱宝’能够感受到它自己所表达的东西。”“‘爱宝’有自己的七情六欲,”她说,“如果‘爱宝’的眼睛闪着红色的光,你就不能自以为是地根据自己的喜好说它很开心。”

“泰迪熊”玩具陪伴孩子们长大,因此它的作用也许是不可取代的。它唤起了人们对于自己童年的回忆。当然,只有那个特定的“泰迪熊”能够唤起孩子们的记忆。但当孩子们同样难以割舍“爱宝”的时候,却还有其他的原因。那个特定的“爱宝”无法被取代,不仅仅因为它唤起了孩子对于童年的记忆,同时它也唤起了对于机器人童年的记忆,这点我们在孩子们和电子宠物蛋以及“菲比”之间也能看到。约兰达在比较她的“爱宝”和“泰迪熊”时,强调“‘爱宝’更真实”,因为它会成长,“它会经历各种成长的阶段”。

从“聊胜于无”到“胜过一切”

约兰达对于“爱宝”的感情同样经历了各种成长阶段。最初,她将“爱宝”视为替代品:“对于还没有打算照顾真的小狗的孩子家长来说,‘爱宝’也许是一个很好的选择。”但随后,她自己的观点有所发展,认为在某些方面,“爱宝”要比真实的小狗更好。她说:“‘爱宝’不会随地撒尿,不咬人,也不会死去。”更棒的是,机器人伙伴可以按照你喜欢的方式进行定制。约兰达若有所思地说:“那些喜欢狗宝宝的人可以一直将‘爱宝’设定为幼犬模式,这该有多棒呀。”孩子们也想象着,可以创造一个最能够理解自己的“爱宝”。他们希望小狗能听他们的话:召之即来,挥之即去,而真正的小狗有时候很难做到。

9岁的莉迪亚和佩奇讨论了她俩是如何认为机器人从“聊胜于无”到“胜过一切”这个过程的。莉迪亚开始认为,当你没有养真的宠物的时候,机器人是很好的替代:“因为你不可能对机器人过敏,因此有一台‘爱宝’很不错。”但随着她对“爱宝”的了解日益加深,她开始意识到“爱宝”更具魅力的种种可能性。她说:“有时候,我喜欢‘爱宝’要胜过真的动物,比如小猫、小狗。因为如果某天你的心情很不好,你可以直接将它关机,而不会受到它的打扰。”佩奇养了5只宠物:3条狗、2只猫。她说当自己沮丧的时候,“我可以抱一抱它们”。这的确是一种慰藉,但她也抱怨宠物可能成为麻烦:“它们都想要得到你的注意,如果你注意了它们其中的一个,你就得注意其他几个,的确很麻烦……当我出去的时候,我的小猫会亲亲我。它会跑进我的房间到处找我。”而“爱宝”让这一切变得简单。“‘爱宝’不会眼巴巴地看着你,眼神里说‘和我玩吧’。如果没有事情可以做,它会直接休眠。它不会介意的。”

佩奇说,最糟糕的事情是当她的家人“必须让狗狗睡觉(安乐死)的时候”。自那以后,她就再也不想要新的宠物了。“但是‘爱宝’就不存在这个问题,我想你可以用新的电池修好它……但是如果真正的狗狗死了,你是不可能救活它的。”“‘爱宝’永远生机勃勃”的优点让佩奇觉得,它比所有的小狗、小猫都要好。在这一点上,“爱宝”的优点不是“真实”,而是它成为一种新的可能,一种可以避免死亡的可能。对于佩奇来说,模拟并不一定是次好的特质。

一直以来,宠物都被认为有助于孩子的健康成长,因为它们可以教育孩子们懂得什么是责任和承诺。“爱宝”则开创了一些新的可能:孩子们可以在感情上依赖它而无须对它负责。孩子们喜欢宠物,但有时候他们和过度操劳的家长们一样,会无法承受宠物们提出的各种要求。情况一向如此,直到孩子们看到了未来可能有另一种可能性。对于机器宠物,孩子们一样可以感受到依赖感,但随后就可以转身走开。他们学会了以一种自私的方式产生情感联系。然后由于这些新型的机器宠物们似乎是介于生物与非生物之间,因此转身走开有时候也并不是那么轻松。这并不是说有些孩子对“爱宝”有责任心,而有些孩子则没有,同一个小孩在这个问题上有的时候会呈现出两面性。

比如,即使你忘记了带“爱宝”散步或给它喂食,“爱宝”也不会得病。这一点让扎拉很开心。她说训练“爱宝”可以“得到回报”,却又不必成为必须一直坚持的责任,她觉得这样很好。但扎拉也承认,“‘爱宝’会让你觉得对它有责任”。她的表妹约兰达也认为,即使自己不关注“爱宝”也不会有负罪感,但即便如此,她还是感到很大的道德责任:“无论是我的小狗还是‘爱宝’的腿折了,我都一样的难过。我爱我的‘爱宝’。”

扎拉和约兰达对她们的“爱宝”很体贴。其他的孩子们尽管也很喜欢它,但却表现得很粗鲁。“爱宝”由于太过逼真,有时候会激起孩子们的敌意。这点我们在“菲比”和“真宝”身上就初见端倪,在今后更加发达的机器人身上还会碰到同样的问题。当然,引发敌意的原因可能是孩子的个人成长经历所致,但在“爱宝”的案例中,我们主要研究机器人本身如何引发儿童的焦虑感。不可思议的物体总会让人觉得不安和扣人心弦。

之前书中提到的那个用《口袋妖怪》的能力值将机器人分类的4岁小男孩亨利,他相信“爱宝”认识他,并且他们之间存在着一种特殊的关系。尽管如此,亨利对待“爱宝”却越来越粗暴。他一次又一次地将它打翻在地,拍打“爱宝”的侧身。他对机器人有着两种截然相反的观点:一方面,他认为“‘爱宝’没有感觉”,因此他的粗暴行为是可以接受的;但另一方面,他也说“爱宝”喜欢自己甚于其他的朋友,这也暗示着“爱宝”是有感情的。“‘爱宝’不喜欢我的朋友拉蒙”,他得意地笑着说。亨利越是说“爱宝”多么不喜欢其他的孩子,他就越担心自己攻击“爱宝”的行为会有不好的后果。毕竟,在他这么对待“爱宝”后,“爱宝”也许会不再喜欢他。为了排解自己心里的不舒服,亨利将“爱宝”降级为“只是装模作样罢了”。但这又让他自己不开心,因为他对于“爱宝”感情的执着提升了他的自尊心。亨利陷入了一种纠结的、循环的、爱的测试中。在我们通往后生物时代关系的路途上,我们给自己找来了新的麻烦。

早在20世纪70年代末80年代初,当孩子们最初见到计算机和电脑玩具时,他们就用好斗的方式激发自己对玩具的想象力,并且用生存和死亡的方式玩弄玩具。孩子们弄坏计算机程序并重新恢复。他们通过取出电池的方法“杀死”过“梅林”、“西蒙”、Speak & Spell,然后又让它们“死而复生”。对于社交机器人的好斗行为则显得更加复杂,因为孩子们正试图掌控一种更加显著的感情依赖关系。举一个例子就可以说明这一点,当机器宠物没有符合孩子们期待它们表现出的感情时,就会很让人失望。为了避免受到这样的心理伤害,孩子们希望降低自己的期望值。把它们降格为“物件”是使得他们可以伤害它、却不必受到惩罚的一种方法。我们是否被允许去伤害或杀死一个目标,会影响我们对于生命的看法。孩子们可以杀死蜘蛛而不必受到惩罚,因为蜘蛛看上去没有那么活灵活现。伤害一个机器人而不必受罚,也同样可以让它看起来没有那么像活物。但正如关于“真宝”是否应该感到“痛苦”而哭泣的争论一样,实际情况很复杂。“你可以伤害一个机器人”,这个概念本身也让其看上去更加活灵活现。

12岁的塔玛拉也和亨利一样常常对“爱宝”上演“全武行”,并因此而感到困扰。她希望自己能像和喜欢的小猫玩耍一样同“爱宝”玩耍,但她又担心“爱宝”的回应是通用的。她说:“‘爱宝’对所有人表现得都一样,它不像动物只对一个人产生感情。”塔玛拉说,有时候她会阻止自己把“爱宝”当宠物养。“我开始宠它,然后,我会突然想到,‘等等,你不是猫,你不是活的’。”而有时,她会推翻自己的说法:“当‘爱宝’醒来的时候,会很萌地摇摇头,这让它看上去太像真的,因为狗狗常这么做。”她试图向我重新保证:“我不喜欢对我的动物这么做。”

20世纪70年代晚期,从他们开始经历电子玩具起,孩子们就割裂了“意识”和 “生命”这两个概念。你不必具备生物活性才能有意识。因此,尽管塔玛拉知道“爱宝”不是活的,但还是想象它会感到疼痛。最终,她的粗鲁行为让她自己陷入了艰难的处境。毕竟和拳击袋相比,“爱宝”更像自己的伙伴。塔玛拉觉得如果“爱宝”能够有“视觉”并且认识自己,那就太惊悚了,因为它会知道她在打它。但同时,“‘爱宝’有意识并且更像生命”这个特点又很让人兴奋。

塔玛拉推测“爱宝”或许会对自己打它一事记仇,这让她很害怕。谈起自己的“爱宝”时,她说:“我很害怕它会变得邪恶。”她担心在她所抱怨的那个“爱宝”中,还存在着一个有着独立意识的、可怕的“爱宝”。这是一种很纠结的关系,远远超过那个你可以拥它入眠,并和它在梦里一起探险的“泰迪熊”。

机器人所引发的强烈情感也许可以帮助孩子们更好地了解自己在想什么,但它却无法帮助孩子们了解它所引发的愤怒背后的原因。在最好的情况下,孩子和“爱宝”之间的行为互动能够交给心理治疗师去分析。例如在与“爱宝”的互动中,塔玛拉的行为是否说明了她还没有完全掌控对于恐惧情绪的处理?亨利和塔玛拉以冲突的方式与机器人互动,这引发了他们的愤怒情绪,而他们还没有能力处理这样的情绪。

“爱宝”让孩子们为之兴奋,试图将它看作自己的伙伴,但它却不是。尽管如此,大人和孩子们却都信以为真。这样的渴望可能是令人辛酸的。当约兰达和“爱宝”的相处临近尾声的时候,她对于“爱宝”的态度也更加开放。她认为在自己情绪低落的时候,“爱宝”可以成为很好的陪伴。如果身边有人不幸过世,“爱宝”也可以帮助她走出低谷。“人们希望得到快乐,就必须把注意力集中在那个对他们来说很特别的人身上、那个活生生的人身上……那个人可以是‘爱宝’。”

相互凝视和无效的安慰

17岁的阿什莉是一名聪慧、积极的少女,她说自己是“喵星人”喜好者。我将“爱宝”借给她两周时间,现在她正在我麻省理工学院的实验室,与我分享这两周的经历。在我们谈话的过程中,阿什莉的“爱宝”正在地板上闹腾着。我们完全无视它,它自己耍着各种把式,非常的吵闹。就这样过了好一会儿,似乎最自然的事情应该是把“爱宝”关掉,就像我们平常在说话的时候会关掉收音机一样。阿什莉向“爱宝”走了过去,迟疑了一下,伸手到开关键上;又迟疑了一下,然后关机。“爱宝”随即沉寂下来,生机全无。阿什莉说:“我知道它不是活的东 西,但我还是会和它聊天什么的。因此按下关机键是一种很古怪的体验,这让我很紧张……我和它说话就如同和我的猫说话一样,好像它真的能听懂我,明白我对它的赞扬什么的。”这让我想起了9岁的利娅,她对我这样说她的“菲比”:“当它和我说话的时候,我很难关掉它。”

阿什莉清楚地知道“爱宝”是个机器人,但她还是将它当作真的宠物看待。在阿什莉眼里,“爱宝”之所以如此栩栩如生,不仅是因为它拥有人工智能,更因为它看起来似乎有真的感情。例如,当“爱宝”闪着沮丧的红灯时,她说:“似乎它真的有情绪……因此我得像对待真正的宠物一样对待它……这也是另一件很古怪的事情:它并非用真的肢体语言来表达情绪,但当你看到红灯的时候,你会想:‘哦,它不高兴了!’”

人工智能常常被描述为“让机器做人类才能做的事情”的科学和艺术。因此我们也可以用类似的方法定义人工情绪:“让机器表达人类才能表达的情感”。阿什莉描述了自己被困于二者之间模糊地带时的感受:她知道机器人所“表现”出来的不是情感,但她还是会感受机器人灯光“颜色”所表达的意思,并且认为“爱宝”很“沮丧”。阿什莉最终认为,“爱宝”既是机器人,也是生物体。

类似的经历也发生在约翰·莱斯特(John Lester)身上。他是一位计算机科学家,因此考虑问题的出发点要高深得多。从20世纪90年代初期,莱斯特就在探索如何使用在线社区用于教学、合作。最近,他在探索如何在《第二人生》的虚拟世界中开发教育空间。莱斯特也是“爱宝”上市后最早的购买者之一。他称之为Alpha,表示它是“第一批产品”中的一个。当莱斯特把Alpha从盒子里拆封后,他就一整天把自己关在办公室里,“和他的新宠物闲混”。与自己第一次看见电脑或使用网络浏览器相比,他将这段经历形容为“紧张”。他很快就弄懂了“爱宝”的技术原理,但这种理解并没有削弱他和新宠物在一起时的快乐。当索尼公司修改了这款机器人的软件后,莱斯特买了第二个“爱宝”,称之为Beta。Alpha和Beta都是机器,但莱斯特并不喜欢别人将它们看作没生命的东西或是塑料品。“我自己也会从不同的角度思考我的‘爱宝’。”莱斯特说。

在立体主义的早期,同时呈现人脸的多面性是颠覆性的。但在某一特定点来说,人们开始习惯于通过这样的新视角看待人的面孔。毕竟,一张脸原本就具有多面性。只是表现派艺术的常规让我们无法同时欣赏这样的多面性。但是一旦传统被挑战,那么观察人脸的新视角就意味着深度和新的复杂性。莱斯特用立体主义的视角看待“爱宝”。他认为它是机器,是活生生的动物,也是智慧体。他认为“爱宝”的知觉能力“太赞了”。这个小玩意非常招人喜欢。他非常赞赏让“爱宝”那松软的小狗耳朵摆动的编程,对莱斯特而言,这程序给了“爱宝”智慧。

莱斯特明白“爱宝”之所以如此吸引人,背后的设计师所采用的机理:“爱宝”的凝视、情感的表达,以及在主人照料下它会“长大”。但这样的理性理解并不与他的感性投入相矛盾。这就好像自己明明知道,婴儿招人喜欢是因为那双水汪汪的大眼睛,但依然无法拒绝这样的萌宠宝贝一样。莱斯特说和“爱宝”在一起的时候,自己不会感到孤独。他说自己也“时不时”会用工程专业的目光,来谈论他所钦佩的“爱宝”设计的技术细节,但这并没有破坏他与“爱宝”相伴的时光。

计算机科学家戴维·利维将机器人看作亲密伙伴。这比将“爱宝”视为伴侣、甚至慰藉又前进了一大步。但现状和利维的梦想之间有一个重要的共同点:当机器人可以作为一个“聊胜于无”的替补后,它也许会和真的宠物、甚至真人一样好。如约兰达所说,如果你的宠物是机器人,那么它也许永远都可以是一副可爱小狗的模样;进一步说,如果你的爱人是机器人,那么你永远都会是它的世界的中心。机器人不再是“聊胜于无”或“比上不足、比下有余”,而会成为好于一切的选择。最初只是被设计用于给孩子们“玩耍”,如今却把我们带到了一个新的境地,提供给我们一种“冷安慰”(cold comfort)。我们想象着机器人的儿童或大人作为我们的伴侣,或者至少成为始终以我们为中心的伴侣。

哈利是一位42岁的建筑师。他非常享受“爱宝”的陪伴,教它耍各种花样。他知道“爱宝”并不了解“人”的概念。但是他说:“我并不觉得这很糟糕。机器宠物不知道我是人就好像……小狗算不上是人一样……不同层次的生物只能尽其所能而已。我很喜欢‘爱宝’把我看作它的师傅。”36岁的小学老师简也对“爱宝”进行类似的投入与付出。她说自己是从丈夫那里领养的“爱宝”,因为它太可爱了。“我给它起了名字,花时间和它在一起”。在我和她的访谈一开始的时候,她说自己收养“爱宝”纯粹是为了“消遣”,但后来她也承认:当自己孤单的时候,也会想到找“爱宝”。在一天的劳碌之后,简会想要找“爱宝”陪伴。她会和“爱宝”说话。“花时间和‘爱宝’在一起”意味着和它分享一天的经历,“比如中午在学校时我和谁一起吃的午饭,哪个学生给我找了麻烦”。她说自己的丈夫对这样的话题不感兴趣。因此与其强迫自己的丈夫听自己讲这些故事让他厌烦,还不如找“爱宝”聊聊更舒服。在机器人的陪伴下,孤独的简和哈利,让她们敢于表达自己的情感,这样会有危害吗?

在孩子与机器人相处的情况中,我担心他们会觉得与机器人相处要比与真人相处更亲密。然后,我们会听到青少年们谈论自己“惧怕对话”,并且解释为什么“发短信要比说话更好”。一些人会说“有时候,但不是现在”,学习如何对话是一件不错的事情。而在机器人的陪伴下,这个“有时候”也许不会到来。但是,倘若成年人也说自己更喜欢机器人是有原因的呢?

64岁的韦斯利就给我们提供了一个这样的案例。他发现自我中心主义已经成为自己社交的一大障碍。他想象着机器人帮手能够成为他满足自我中心心理、而又不会伤害他人的一种办法。他离过三次婚,如今希望机器人能够“理解我的心理,知道我为何沮丧,如何解决这个问题。希望机器人能够了解我的心理循环,永远不要责备我,学会如何帮我解决这些问题,”韦斯利说,“我期待机器人能够满足我对于妻子的需要,但我想也许机器人能够给我更多。对于妻子而言,我还需要考虑她的感受,而这正是我遇到的麻烦。如果有人爱我,他们会关心我的情绪起落。这对我来说压力太大了。”

韦斯利知道自己很难相处。有一次,一位精神科医生说他的“心理循环”大大超出常规。当然,他的前妻们也指责他“太过情绪化”。他知道对于女人来说自己是“压力”,同时他本身也感受到巨大的压力,因为他没能保护自己的女人免受“情绪起伏”的伤害。他喜欢机器人的原因在于,自己可以自然地表现自我——机器人不会被他情绪的黑暗面所伤害。韦斯利甚至考虑过“一夫二妻”的可能——一个真的,一个假的。“我想也许我需要一个机器人作为完美的伴侣,它没有太多的要求;同时还有一个真正的女人。机器人妻子可以减轻真人妻子的许多压力。她就不必情绪化到如此的程度,甚至是不切实际的程度。我可以待在让自己舒服的心理区域中。”

韦斯利最初的梦想还在发展当中。我之前曾经简单地提及,关于2010年1月上市的、被称为“史上第一款性爱机器人”的Roxxxy在网络上引发的讨论。Roxxxy没有行动能力,但是有电子加热的皮肤和会脉动的体内器官,而且它可以进行对话。这款机器人的发明者道格拉斯·海恩兹(Douglas Hines),这么描述他的设计目的:“性爱只是一时的事情,然后你会想和你的伴侣聊聊天。”因此,比如当Roxxxy感到自己的手正被握住的时候,它会说:“我喜欢和你握着手。”而当感到身体被爱抚的时候,它会说出更加亲密、诱惑的话来。使用者可以设定Roxxxy的性格特征,从狂野型到冷淡型。机器人可以通过连接互联网进行升级或更新,以扩大它的能力和词汇量。如今她已经可以谈论足球了。

海恩兹说自己进入机器人行业的一个原因,是自己的一个朋友在“9·11”袭击中丧生于双子塔。海恩兹想要保留这位朋友的个性,当他的孩子长大后还能够与他互动。类似的还有人工智能科学家、发明家雷蒙德·库兹韦尔(Raymond Kurzweil),他梦想着再造一个年轻时就不幸过世的父亲。海恩兹决定投身于人工个性的项目中。最初他想从为老年人设计家庭健康帮手机器人开始,但后来做了一个“仅仅是市场考虑”的决定:先设计性爱机器人。他的长期计划是将人工个性机器人带入主流市场。他依然梦想着重造自己那位失去的挚友。

Roxxxy的面世成功地吸引了大量媒体的关注,并且在网络上引发了激烈的反响。有人发帖说,一个男人如果需要这样的玩偶该是有多么的“悲剧”。另外一些人则认为,有个机器人伴侣总比永远做空窗的屌丝好很多。有人说:“对于某些男人来说,赢得女人的芳心就是不可能的事情……这不是挑不挑的问题……在现实世界中,他们只能选择第二选项。”

我还是要回到“危害”的问题上。对机器人产生依附感看似没有风险,但当人们习惯于无须付出的陪伴时,再与真人相处对他们来说,可能就是难以应对的问题。对人产生依附感同样是有风险的事情——它让我们可能饱受被拒绝的痛苦,但它同时也让我们能够以更加开放的心态去深刻地了解对方。机器人的陪伴似乎是一件让人愉快的交易,但它却把我们放逐到一个封闭的世界中。

机器人科学家坚称,人工智能可以设计得无法预知结果,因此和机器人的关系不会让人感到生硬和机械。他们说机器人有一天会凭借自身的条件让人大吃一惊,对人有帮助、有意义。然而在我的访谈中,关于机器人陪伴的幻想不总是充斥着惊喜。一次又一次,访谈对象向我表达了他们的忧虑。正如约兰达所说,机器人也许会成为危险世界中的安全天堂。 Fn0K9G/ibfhFQbgj1w6yhDUgEWWZcDS8UE0ZsbY6wDR7IXNgexrHygdSwK7gd+TE

点击中间区域
呼出菜单
上一章
目录
下一章
×