斯坦利的试驾是机器智能时代即将到来的征兆。几十年间,科幻作家的著作不断预言着机器智能时代的到来,因此这项技术真正开始出现的时候,似乎有些让人打不起精神。20世纪80年代末,走过曼哈顿大中央车站的每一个人可能都会注意到,早晨,近1/3的上班族戴着索尼随身听的耳机。当然,如今这种耳机已经被苹果标志性的亮白色iPhone耳机取代。还有一些人相信,高科技成衣必将孕育谷歌眼镜的未来版本——眼镜是这家搜索引擎巨头在增强现实领域的第一次尝试,或许也是为了打造更宏大、更逼真的沉浸式系统。我们就像温水中的青蛙,对信息技术迅速发展带来的那些变化,感觉已经有些麻木了。
索尼随身听、iPhone和谷歌眼镜都预示着一个世界,在这里,对于什么是人类、谁又是机器的问题,界线已经开始模糊。威廉·吉布森(William Gibson)在科幻小说《神经漫游者》 (Neuromancer) 中描绘了由计算机和网络组成的控制论领土的景象,普及了网络空间的理念。书中也描绘了未来世界,在那里,计算机并不是一个个独立的盒子,而是被紧紧编织在一起、缠绕在人们身边,“增强”人们感觉的集合体。
从早晨上班族戴着索尼随身听耳机,到iPhone用户耳朵里塞着的原装耳机,再到戴着谷歌眼镜的时尚达人看着面前那个小小的显示器对他们周围的世界进行标注,这些都算不上巨大飞跃。他们还没有像吉布森预见的那样“穿进网中”,但人们很容易就会发现,计算与通信技术正在向这个方向快速发展。吉布森很早就为我们展现了“智能增强”在科幻小说中的未来情景,他设想出了计算机的植入,称之为“微型软件”(microsofts)。这些装置可能会被置入人类头骨,从而使人类即时获得某种技能,比如一种新的语言。在那时,即几十年前,这显然是科幻小说中不可能实现的部分,而如今,他对半机械人的预测不再是一种放荡不羁的夸张想象。
2013年,奥巴马公布了BRAIN大脑研究计划,旨在同时记录人脑中上百万个神经元的活动。不过该计划的主要赞助者之一是DARPA,这一机构的兴趣显然不仅仅是阅读大脑中的信息。负责大脑计划的科学家们会耐心地解释说,该计划的目标之一是打造一个人脑与计算机之间的双向接口。表面上看,这样的想法似乎险恶得令人难以置信,人们不禁想起了“老大哥”的形象以及思想控制。同时,这一技术中还有一种乌托邦式的暗示。潜在的未来也许会步入人机界面设计的必然轨迹,这在20世纪60年代利克莱德的“人机共生”论中便有暗示,他预言了人类和机器之间可以进行更为亲密的合作。
虽然《神经漫游者》描述的世界是科幻小说中的精彩场景,然而,想真正进入吉布森描绘的世界,人们却必须面对着一大难题:一方面,随着半机械人的到来,疑问也随即产生,那就是作为人类意味着什么。这一问题本身并不是一个新的挑战。当今的技术可能在不断加速发展,人类总会被技术转化,无论是对火的使用还是轮子的发明(或是它在20世纪的行李箱上的应用)都印证了这一点。
自工业时代开始,机器就在取代人类劳动力。而现在,随着计算机和计算机网络的到来,机器又首次取代了“知识分子”们的劳动。计算机的发明引发了早期关于智能机器可能造成的后果的讨论,人工智能技术的新浪潮又重新点燃了这场辩论。
主流经济学家坚持认为,随着时间的推移,劳动力的规模仍将持续增长,即使由于技术和创新的推动,工作性质已经发生了转变。回想19世纪,超过半数的劳动力投身于农业劳动,如今这一数字已经降到近2%,相比以往,更多人都开始从事农业以外的工作。事实上,即使出现了两次经济衰退,在1990—2010年,美国的总体劳动人口仍然增长了21%。如果主流经济学家的论点是正确的,那么自动化并不会在社会层面上引发经济灾难。
不过,如今我们正在进入一个新时代,人类可以(并且越来越容易)被设计进入或脱离一个“环”,即便是在从前高地位、高收入、白领阶层的职业领域也是如此。一方面,智能机器人能够给卡车装卸货物,另一方面,软件机器人又在取代呼叫中心的雇员、办公室文员、阅读法律文件的律师和检查医疗图像的医生。在未来,人与机器之间的界线应该如何区分出,又该由谁来区分?
尽管关于未来自动化影响的争论越来越激烈,但有关设计师及其价值的探讨却少之又少。接受新闻采访时,计算机科学家、机器人专家和技术人员带来了一些相互矛盾的观点。有些人希望机器取代人类,有些人则认同一种必然性——“我欢迎我们的机器人霸主”这句话因为《辛普森一家》 (Simpsons) 而流行开来,而他们中的一些人却热衷于打造能够拓展人类能力的机器。关于真正的人工智能(即强人工智能或通用人工智能[AGI])是否会出现,机器除了模仿人类以外能否做到更多事的话题,在过去几十年间引得人们争论不休。如今,又有越来越多的科学家和技术人员提出了新的预警,警告人们具备自我感知能力的机器出现的可能性以及相应的后果。
|
对于当今人工智能技术状况的讨论已经突然转向科幻小说或宗教领域。不过,机器自治的现实不仅属于哲学范畴,也不是纯粹的假设性问题了。我们已经进入了新时期,机器能够执行很多需要智慧与体力的人类工作:它们可以胜任工厂的工作、驾驶汽车、诊断疾病,也能以人类律师的眼光阅读文件,它们当然也能控制武器,以极高的精准度展开屠杀。
对于AI与IA的区分,没有比新一代呼之欲出的武器系统更清晰的例子了。DARPA的开发人员即将跨过新技术的门槛,用远距离反舰导弹(LRASM)取代如今的巡航导弹。LRASM是专门为美国海军开发的,计划于2018年加入美国舰队。与之前不同的是,美国军火库中的这种新式武器具备自主判定打击目标的能力。根据设计,LRASM在与人类控制人员失去联系后仍可飞到敌军舰队之中,然后使用人工智能技术来决定袭击哪些目标。
由此产生了新的道德困境:人类是否允许武器在没有人类监督的情况下自发扣动扳机?快速发展的计算机化汽车中也存在着相似的挑战,交通方式是新一波智能机械带来的后果的象征。人工智能即将对社会产生影响,这种影响力甚至将超过20世纪90年代初的个人电脑和互联网。这种转变正在一群精英技术专家的监督下进行。
硅谷元老杰瑞·卡普兰(Jerry Kaplan)曾是斯坦福大学人工智能实验室的研究员,在20世纪80年代离开了这一领域。几年前,卡普兰对斯坦福大学的计算机科学家、研究生和研究人员们发出警告:“你们今天在人工智能实验室的所作所为,那些你们写入系统的内容,在日后可能决定整个社会处理这个问题的方法。”即将到来的新一代人工智能,会带来一个至关重要的伦理挑战。卡普兰认为:“我们正在不顾危险地培养机器人,而这可能是以人类生命为代价的。”他将研究者们面前的未来一分为二,一边是取代人类的智能机器,而另一边则是以人类为中心、扩展人类能力的计算系统。
与硅谷的许多技术专家相似,卡普兰相信,我们正处在建立完整经济体的边缘,而这种经济体基本上无须人类干预。这听起来就像是世界末日,不过卡普兰描述的这种未来几乎必将到来。进一步挖掘他的观点后,我们会发现,如今技术发展的加速并不是盲目的。每一个设计着我们未来的工程师都在作出选择。