购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

第一节
人工智能“三起两落”

或许你已经感受到了,人工智能这个概念被越来越频繁地提及。人工智能从一个过去仅限于专业实验室的学术名词转变为互联网时代的科技热点。

但或许你还没有注意到,人工智能带来的变化已经在我们身边悄然出现。你打开的新闻是人工智能做的算法推荐;网上购物时,首页显示的是人工智能推荐的你最有可能感兴趣、最有可能购买的商品。人工智能为人们提供着前所未有的便利,而这些细节变化背后的技术进步,一点都不比机器能在棋盘上战胜人类冠军来得更小。

然而,作为计算机科学的一个分支,人工智能的诞生不过短短70年历史,这70年伴随了几代人的成长,人工智能也在这70年经历了跌宕和学术门派之争,经历了混乱的困惑和层峦叠嶂般的迷思,在人工智能的“三起两落”之后,未来的人工智能将走向怎样的远方?

想要理解现在,预见未来,可以从回溯历史开始。

一、从想象走进现实

“人工智能”虽然是一个现代性的专业名词,但是人类对人造机械智能的想象与思考却是源远流长的。

地球上第一个行走的机器人叫塔洛斯,是个铜制的巨人,大约2500多年前在希腊克里特岛降生在匠神赫菲斯托的工棚。据荷马史诗《伊利亚特》描述,塔洛斯当年在特洛伊战争中负责守卫克里特岛,诸神饮宴时有会动的机械三足鼎伺候。埃德利安·梅耶在《诸神与机器人》中甚至把希腊古城亚历山大港称为最初的硅谷,因为那里曾经是无数机器人的家园。

古老的机器人虽然与现代意义的人工智能风马牛不相及,但这些尝试都体现了人类复制、模拟自身的梦想。

人类对人工智能的凭空幻想阶段一直持续到20世纪40年代。由于第二次世界大战中交战各国对计算能力、通信能力在军事应用上迫切的需求,使得这些领域的研究成为人类科学的主要发展方向。信息科学的出现和电子计算机的发明,让一批学者得以真正开始严肃地探讨构造人造机械智能的可能性。

1935年春天的剑桥大学国王学院,年仅23岁的图灵第一次接触到了德国数学家大卫·希尔伯特的23个世纪问题中的第10个:“能否通过机械化运算过程判定整系数方程是否存在整数解?”

图灵清楚地意识到,解决这一问题的关键在于对“机械化运算”的严格定义。考究希尔伯特的原意,这个词大概意味着“依照一定的有限的步骤,无须计算者的灵感就能完成的计算”,这在没有电子计算机的当时已经称得上既富想象力又不失准确的定义。但图灵的想法更单纯,机械化运算就是用一台机器可以完成的计算,用今天的术语来说,机械化运算的实质就是算法。

1936年,图灵在伦敦权威的数学杂志上发表了划时代的重要论文《论可计算数及其在判断性问题中的应用》,一脚踢开了图灵机的大门。

1950年,图灵发表了论文《计算机器与智能》,首次提出了对人工智能的评价准则,即闻名世界的“图灵测试”。图灵测试是在测试者与被测试者(一个人和一台机器)隔开的情况下,由测试者通过一些装置向被测试者随意提问。经多次测试后,如果机器让30%的测试者做出误判,那么这台机器就通过了测试,并被认为具有人类水准的智能。

从本质上说,图灵测试从行为主义的角度对智能进行了重新定义,它将智能等同于符号运算的智能表现,而忽略了实现这种符号智能表现的机器内涵。它将智能限定为对人类行为的模仿能力,而判断力、创造性等人类思想独有的特质则必然无法被纳入图灵测试的范畴。

但无论图灵测试存在怎样的缺陷,它都是一项伟大的尝试。自此,人工智能具备了必要的理论基础,开始踏上科学舞台,并以其独特的魅力倾倒众生,带给人类关于自身、宇宙和未来的无尽思考。

1956年8月,在美国达特茅斯学院,约翰·麦卡锡(LISP语言创始人)、马文·明斯基(人工智能与认知学专家)、克劳德·香农(信息论的创始人)、艾伦·纽厄尔(计算机科学家)、赫伯特·西蒙(诺贝尔经济学奖得主)等科学家聚在一起,讨论着一个不食人间烟火的主题:用机器来模仿人类学习及其他方面的智能。这就是著名的达特茅斯会议。

会议足足开了两个月,讨论的内容包括自动计算机、编程语言、神经网络、计算规模理论、自我改进(机器人学习)、抽象概念和随机性及创造性,虽然大家没有达成普遍共识,但是却将会议讨论的内容概括成一个名词:人工智能。

1956年也因此成为人工智能元年,世界由此变化。

二、“一起一落”和“再起又落”

达特茅斯会议之后的数年是大发现的时代。对许多人而言,这一阶段开发出的程序堪称神奇:计算机可以解决代数应用题,证明几何定理,学习和使用英语。

当时大多数人几乎无法相信机器能够如此“智能”。1961年,世界上第一款工业机器人Unimate在美国新泽西的通用电气工厂上岗试用。1966年,第一台能移动的机器人Shakey问世,跟Shakey同年出生的还有伊莉莎。

1966年问世的伊莉莎可以算是亚马逊语音助手Alexa、谷歌助理和苹果语音助手Siri的“祖母”,“她”没有人形、没有声音,就是一个简单的机器人程序,通过人工编写的脚本与人类进行类似心理咨询的交谈。

伊莉莎问世时,机器解决问题和释义语音语言已经初露端倪。但是,抽象思维、自我认知和自然语言处理功能等人类智能对机器来说还遥不可及。

但这并不能阻挡研究者们对人工智能的美好愿景与乐观情绪,当时的科学家们认为,具有完全智能的机器将在二十年内出现。而当时对人工智能的研究几乎是无条件支持的。

但是好景不长,人工智能的第一个寒冬很快到来。

20世纪70年代初,即使是最杰出的人工智能程序也只能解决它们尝试解决的问题中最简单的一部分,人工智能研究者遭遇了无法克服的基础性障碍。1973年,詹姆斯·莱特希尔爵士针对英国人工智能研究状况的报告批评了人工智能在实现其“宏伟目标”上的完全失败,并导致了英国人工智能研究的低潮。

随之而来的还有资金上的困难,此前的过于乐观使人们期望过高,当承诺无法兑现时,对人工智能的资助就缩减或取消。由于缺乏进展,此前对人工智能提供资助的机构(如英国政府、DARPA和NRC)逐渐停止了对无方向的人工智能研究的资助。

然而,当人类进入20世纪80年代,人工智能的低潮出现了转机。一类“专家系统”能够依据一组从专门知识中推演出的逻辑规则在某一特定领域回答或解决问题,被全球许多公司所采纳。

1965年起设计的Dendral能够根据分光计读数分辨混合物;1972年设计的MYCIN能够诊断血液传染病,准确率为69%,而专科医生的诊断准确率是80%;1978年,用于计算机销售的、为顾客自动配置零部件的专家系统XCON诞生,这是第一个投入商用的人工智能专家,也是当时最成功的一款。

人工智能再次获得了成功,1981年,日本经济产业省拨款8.5亿美元支持第五代计算机项目,其目标是造出能够与人对话、翻译语言、解释图像并且像人一样进行推理的机器。

其他国家纷纷做出响应:1984年,英国开始了耗资3.5亿英镑的Alvey工程;美国某企业协会组织了微电子与计算机技术公司(Microelectronics and Computer Technology Corporation, MCC),向人工智能和信息技术的大规模项目提供资助;美国国防高级研究计划局也行动起来,其1988年对人工智能领域的投资额是1984年的三倍。

而历史总是惊人的相似,人工智能再次遭遇寒冬:从20世纪80年代末到90年代初,人工智能遭遇了一系列财政问题。

“变天”的最早征兆是1987年人工智能硬件市场需求的急转直下,Apple和IBM生产的台式机性能不断提升,到1987年时其性能已经超过了Symbolics公司和其他厂家生产的昂贵的Lisp机,老产品失去了存在的理由:一夜之间这个价值5亿美元的产业土崩瓦解。

三、人工智能时代兴起

“实现人类水平的智能”这一最初的梦想曾在20世纪60年代令全世界的想象力为之着迷,其失败的原因至今仍众说纷纭。最终,各种因素的合力将人工智能拆分为各自为战的几个子领域。

如今,已年过半百的人工智能终于实现了它最初的一些目标。而现在,人工智能比以往的任何时候都更加谨慎,却更加成功。

不可否认,人工智能的许多能力已经超越人类,如围棋、德州扑克;如证明数学定理,学习从海量数据中自动构建知识,识别语音、面孔、指纹,驾驶汽车,处理海量文件,进行物流和制造业的自动化操作等。

机器人可以识别和模拟人类情绪,甚至充当陪伴员和护理员,人工智能的应用也因此遍地开花,进入人类生活的各个领域。

人工智能的深度学习和强化学习成了时代强音,一个普遍认同的说法是:2012年的ImageNet年度挑战开启了这一轮人工智能的复兴浪潮,ImageNet是为视觉认知软件研究而设计建立的大型视觉数据库,由华裔人工智能科学家李飞飞于2007年发起,ImageNet把深度学习和大数据推到前台,也使资金大量涌入。

近年来,人工智能开始写新闻,经过海量数据训练学会了识别猫,IBM超级计算机“沃森”战胜了人类智力竞赛的两任冠军,谷歌AlphaGo战胜了围棋世界冠军,波士顿动力的机器人Atlas学会了三级跳远。新冠肺炎疫情发生后,人工智能更是落地助力医疗:智能机器人充当医护小助手,智能测温系统精准识别发热者,无人机代替民警巡查喊话,人工智能辅助CT影像诊断……

究其原因,人工智能技术的商业化离不开芯片处理能力的提升、云服务的普及及硬件价格下降等。

海量训练数据及GPU(Graphics Processing Units)提供的强大而高效的并行计算促进了人工智能的广泛应用。用GPU来训练深度神经网络,所使用的训练集更大,所耗费的时间大幅缩短,占用的数据中心基础设施更少。

GPU还被用于运行机器学习训练模型,以便在云端进行分类和预测,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。与单纯使用CPU(Central Processing Units)的做法相比,GPU具有数以千计的计算核心、可实现10~100倍的应用吞吐量。

同时,人工智能芯片的价格和尺寸不断下降和缩小。2020年,全球的芯片价格比2014年下降70%左右。随着大数据技术的不断提升,人工智能赖以学习的标记数据获得成本下降,并且对数据的处理速度大幅提升。而物联网和电信技术的持续迭代又为人工智能技术的发展提供了基础设施。2020年,接入物联网的设备超过500亿台。代表电信发展里程的5G将为人工智能的发展提供最快1Gbps的信息传输速度。

这一切,无不昭示着我们正迎来的时代——人工智能时代。 O0YLTCuNkK4HyItrKzZhiGHJeQRgStyxEQHXz9M5f4pG2hr/G9RJJFGvBrn6qKWS

点击中间区域
呼出菜单
上一章
目录
下一章
×