购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

1.2 深度学习的崛起以及存在的问题

进入21世纪,互联网与移动互联网的兴起产生了大量数据,摩尔定律促进着易获取的计算能力的提升,神经网络的相关算法逐渐成熟,基于此,神经网络迎来了又一次的复兴。神经网络拥有更深的网络结构,因此被称为“深度神经网络”。由于有足够的训练数据和计算能力,深度神经网络在很多任务(尤其是计算机视觉和自然语言处理)中取得了非常优异的性能。性能的突破促进了人工智能在人脸识别、自动驾驶、语音识别等一系列场景中的应用,从而引起了人工智能的热潮。

2006年Geoffrey Hinton提出通过无监督逐层预训练的方法训练深层神经网络,并提出了一些新的网络结构,如深度置信网络(Deep Belief Nets,DBN)等,并命名“深度”学习,这种优化方法促进了第三次神经网络的研究。2009年Geoffrey Hinton将CNN介绍给微软的研究者,2011年深度学习在语音识别上率先突破,结束了语音识别领域将近十年的停滞。2012年AlexNet将深度CNN用于图像目标识别,展现出了较大的优势。2014年R-CNN算法将深度CNN首次用于图像目标检测任务。2015年Yann LeCun等人在 Nature 发表了关于深度学习的综述文章,介绍了深度学习取得突破的重要原因和一些成果。此后,深度学习在诸多领域得到了广泛的应用。

从根源来讲,深度学习问题是一个机器学习问题,它从有限样例中通过算法总结出一般性的规律,并将其应用到新的未知数据上。神经网络和深度学习并不等价,深度学习可以采用神经网络模型,也可以采用其他模型(比如深度信念网络是一种概率图模型)。但是,神经网络模型功能强大,这使得其成为应用最广泛的一种模型(例如计算机视觉普遍采用CNN)。

神经网络的非线性和复杂性(即要用大量参数来描述)使得虽然通过大量的标注数据经过深度学习可以得到一个结果误差很小的神经网络,但要用它来进行解释却是十分困难的,这是长期困扰神经网络方法的一个问题。

目前以深度学习为核心的人工智能技术还不能与人类智能相提并论。深度学习需要大量的标注数据,与人类的学习方式差异性很大。虽然深度学习取得了很大的成功,但是深度学习还不是一种可以解决一系列复杂问题的通用智能技术,而是可以解决单个问题的一系列技术。 jvBkgBt3uoJKUNgVtnLv/DifDE+CNrPskfDIE4acYz7DZUUUrUn+bxJmMGimKgeZ

点击中间区域
呼出菜单
上一章
目录
下一章
×