在计算机科学领域中,人工智能是一种机器表现的行为,这种行为能以与人类智能相似的方式对环境做出反应并尽可能提高自己达成目的的概率。
人工智能这个概念最早于1956年8月的达特茅斯会议上由约翰·麦卡锡(John McCarthy)、马文·明斯基(Marvin Minsky)、克劳德·香农(Claude Shannon)、纳撒尼尔·罗切斯特(Nathaniel Rochester)等人提出。在此之前,人工智能有着许多种叫法,如“自动机理论”“复杂数据处理”等。
会议召开的两年前,也就是1954年,达特茅斯学院数学系有4位教授退休,这对于达特茅斯学院这样的小学校来说无疑是巨大的损失。刚上任的系主任约翰·克门尼(John Kemeny)赶忙向母校普林斯顿大学求援,从母校数学系带回4位刚毕业的博士来任教,而麦卡锡就是其中之一。1955年夏,麦卡锡应邀参与IBM的一个商业项目,邀请他的人是罗切斯特。罗切斯特是IBM第一代通用机701的主设计师,并且对神经网络表现出极大的兴趣。俩人一拍即合,决定发起一个将于次年夏天举办的研讨会,还说服了香农和在哈佛做研究员的明斯基来共同提议。麦卡锡给这个研讨会起了个别出心裁的名字——“人工智能夏季研讨会”(Summer Research Project on Artificial Intelligence)。同年9月2日,麦卡锡、明斯基、香农和罗切斯特正式发出提案引入“人工智能”一词,该提案的主要内容如下:
“我们提议于1956年夏,在新罕布什尔州汉诺威的达特茅斯学院进行一项10人、为期两个月的人工智能研究。这项研究基于这样一个猜想,即原则上,我们可以足够精确地描述学习或智能的任何其他特征的各个方面,从而能够让机器来进行模拟。我们试图找到方法让机器使用语言、形成抽象和概念、解决人类尚未解决的各类问题以及自我改进等。我们认为,一群经过精心挑选的科学家一起努力一个夏天,就可以在上述的一个甚至多个问题上取得重大进展。”
会议于1956年6月开始,同年8月结束。会议讨论了人工智能相关问题的各个方面,如自动化计算机、如何通过编程让计算机使用语言、神经网络、计算规模的理论、自我改进、随机性和创见性等。
明斯基认为,设计出一种具备某种特定学习能力的机器并非不可能,机器的本质是通过某种转换将输入变成输出的过程。机器的这种反应能力可以通过不断的“试错”过程训练获得。例如我们可以将这样的一台机器放置在某种特定的环境中,不断给予它“成功”和“失败”的判据来训练它达成某种目标的能力。更进一步,如果机器能通过学习使自身形成感知和运动抽象能力,那么它就会进行内部探索找寻解决问题的方案。
罗切斯特分享了关于机器性能的独创性话题。在为自动计算器编写程序时,人们通常会向机器提供一套规则,这些规则涵盖了机器可能会面对的各种意外情况。机器遵守这一套规则但不会表现出独创性或常识。此外,只有当机器因为规则矛盾而变得混乱时,人们才会对自己设计出糟糕的规则感到恼火。最后,在编写机器程序时,有时人们必须以非常费力的方式解决问题,然而,如果机器有一点直觉或者可以做出合理的猜测,问题就可以直接被解决。
会议进行了两个月,虽然每个人对AI的定义都不尽相同,但它却具有重要的开创意义和深远影响。由于会议上提出了人工智能(Artificial Intelligence)这一概念,因而1956年被称作“人工智能元年”。
人工智能大体上可以分为3类:弱人工智能、强人工智能和超人工智能。
1.弱人工智能
弱人工智能(Weak AI),也被称为狭隘人工智能(Narrow AI)或应用人工智能(Applied AI),指的是只能完成某一项特定任务或者解决某一特定问题的人工智能。苹果公司的Siri就是一个典型的弱人工智能,它只能执行有限的预设功能。同时,Siri目前还不具备智力或自我意识,它只是一个相对复杂的弱人工智能体。
2.强人工智能
强人工智能(Strong AI),又被称为通用人工智能(Artificial General Intelligence)或全人工智能(Full AI),指的是可以像人一样胜任任何智力性任务的智能机器。这样的人工智能是一部分人工智能领域研究的最终目标,并且也作为一个经久不衰的话题出现在许多科幻作品中。
对于强人工智能所需要拥有的智力水平并没有准确的定义,但人工智能研究人员认为强人工智能需要具备以下几点:
·思考能力,运用策略去解决问题,并且可以在不确定情况下做出判断;
·展现出一定的知识量;
·计划能力;
·学习能力;
·交流能力;
·利用自身所有能力达成目的的能力。
3.超人工智能
哲学家、牛津大学人类未来研究院院长尼克·波斯特洛姆(Nick Bostrom)把超级智能定义为“在几乎所有领域都大大超过人类认知表现的任何智力”。
超人工智能(Artificial Super Intelligence,ASI)正是超级智能的一种。首先,超人工智能能实现与人类智能等同的功能,即可以像人类智能实现生物上的进化一样,对自身进行重编程和改进,这也就是“递归自我改进功能”。其次,波斯特洛姆还提到,“生物神经元的工作峰值速度约为200 Hz,比现代微处理器(约2 GHz)慢了整整7个数量级”,同时,“神经元在轴突上120 m/s的传输速度也远远低于计算机比肩光速的通信速度”。这使得超人工智能的思考速度和自我改进速度将远远超过人类,人类作为生物上的生理限制将统统不适用于机器智能。
简要回顾人工智能的发展历史,我们会发现它主要由3个方面相互交织发展:符号主义、连接主义和行为主义。
·符号主义:旨在用数学和物理学中的逻辑符号来表达思维的形成,通过大量的“如果-就”(if-then)规则定义,产生像人一样的智能,这是一个自上而下的过程,包括专家系统、知识工程等。
·连接主义:主张智能来自神经元之间的连接,它让计算机模拟人类大脑中的神经网络及其连接机制,这是一个自下而上的过程,包括人工神经网络等。
·行为主义:指的是基于感知行为的控制系统,使每个基本单元实现自我优化和适应,这也是一个自下而上的过程,典型的代表有进化算法、多智能体等。
由这3个方面构成的人工智能设计模型如图1-1所示。
图1-1 人工智能设计模型
在人工智能设计模型中,“创造者驱使”是一个自上而下的过程,这里的“创造者”不仅指的是创造者,也可以是一些其他的高级角色,如开发者,甚至可以是设计规范和材料属性。而“环境驱动”是一个自下而上的过程,其中“环境”可以是交互约束,如行为规则;也可以是外部因素,如位置和气候。总之,“创造者驱使”指明了一个宏观层面的方向,而“环境驱使”允许智能体自由发展,甚至可以改变它们的行为规则,从而实现自身的变化性和多样性。
我们在前文介绍了人工智能的定义以及基本概念,下面将介绍人工智能发展的主要分支:机器学习和深度学习。如图1-2所示,人工智能发展的一个很重要的分支便是机器学习,由人工智能的连接主义发展形成的一个重要领域分支,它的核心目的是让计算机拥有像人一样的学习能力。而在机器学习中的一个庞大分支就是神经网络,严格来说深度学习属于机器学习的一个类别,但是随着近年来深度神经网络的发展,特别是深度学习应用范围的不断扩展,深度学习已经成为机器学习领域的一个重要部分。
图1-2 人工智能、机器学习、深度学习三者之间的关系
机器学习(Machine Learning)是关于计算机系统使用的算法和统计模型的科学研究,这些算法和统计模型不使用明显的指令,而是依靠模式和推理来有效地执行特定的任务。它被视为人工智能的一个子集。机器学习算法是建立在一个样本数据集(称为“训练数据”)上,在没有明确编程指示下根据任务的情况做出预测或决策的数学模型。机器学习算法被广泛应用于各种各样的应用中,如电子商务中的智能推荐和垃圾邮件判定等,在这些应用中对每一条数据编写特定指令是不切实际的。机器学习与计算统计学密切相关,计算统计学主要用于解决计算机的预测问题。数学优化的研究为机器学习领域提供了方法、理论和应用领域。数据挖掘是机器学习中的一个研究领域,其重点是通过无监督学习进行探索性数据分析。
“机器学习”这个名词是由阿瑟·塞缪尔于1959年提出的。汤姆·M·米切尔给机器学习领域中所研究的算法下了一个被广泛引用、更为正式的定义:“如果一个计算机程序在任务T(由P来度量)中的表现随经验E而改善,那么我们称该程序从经验E中学习。”这个对机器学习所涉及任务的定义提供了一个基础的操作定义而非认知上的定义。
深度学习,也称“阶层学习”或“分层学习”,是基于学习数据表征的更广泛的机器学习方法系列的一部分,而不是基于特定任务的算法。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的优势是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。其中深度指的是网络中最长的输入输出距离。
那么深度学习和机器学习的区别是什么呢?如图1-3所示,机器学习,即所谓的统计机器学习,在处理问题时,首先需要人工进行特征提取,然后根据提取后的特征进行分类问题求解。而深度学习的强大之处在于,将特征提取和分类问题求解汇总在一个神经网络模型中,只需一次输入即可得到最终的输出结果。
图1-3 机器学习与深度学习之间的差异及联系