购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

1.4 AI芯片的研发概况

AI芯片的研发热潮,主要集中在ASIC芯片领域。除了各大公司及不断出现的初创公司积极投入之外,大学和研究机构也起到了关键的作用,有的已经有十多年甚至更长时间的技术积累。目前引人注目的来自大公司的ASIC芯片,以谷歌的张量处理单元(Tensor Processing Unit,TPU)系列为代表。高通在2019年4月发布的Cloud AI100系列,也是AI芯片性能的一次飞跃。但是,“爆炸式”出现的很多初创AI芯片公司,在技术层面也绝不落后于大公司。

表1.1列出了ASIC芯片与一些CPU、GPU和FPGA的参数对比。在“训练”和“推理”两栏中,CPU的能效和速度为基数,其他都是与CPU相比较的倍数。FPGA因为很少用于训练,因此其训练能效和速度没有数据。ASIC芯片主要是指深度学习AI芯片,虽然与原来的CPU和GPU相比已经有了巨大进步,但性能和能效方面还有巨大的提升空间。

表1.1 ASIC芯片与CPU、GPU和FPGA的参数对比

img

然而,要确定CPU、GPU、FPGA和ASIC究竟哪一种才是最佳解决方案并非易事,因为这取决于AI应用类型和范围、设计约束及所要求的上市时间等。如果上市及应用时间紧,那就只能选择GPU或嵌入式GPU。FPGA的上市时间相对ASIC也较短,设计流程简单,也常用作设计ASIC之前的原型。另外,用于云端和边缘侧的芯片要求完全不同,云端服务器里的AI芯片需要很大的吞吐量和灵活性,而边缘侧物联网则需要功耗极低、面积很小的AI芯片。

AI芯片要实现大规模商业化,需要保证芯片能够在极低的功耗和成本条件下达到足够高的性能,能够满足新的AI模型和算法的运算需求。虽然目前的硅基AI芯片只能算是非常初级的尝试,离生物大脑的性能或能效还有很长的路要走,但是已经形成了很好的发展势头。

虽然深度学习加速器近年来已成为主流的AI芯片类型,但是“AI”不等于“深度学习”。AI是一个包含广泛方法的领域,其目标是创建具有智能的机器,而深度学习本身作为AI的一个子领域,是机器学习领域里众多方法中的一种。

表1.2列出了AI芯片研发和产业化概况(截至2020年9月)。基于深度学习模型的加速器已经相对比较成熟,有的已经得到批量应用;而基于其他算法,包括在原来深度学习模型上进行了大量改动的新模型和新算法的AI芯片,大部分还处于实验室研发阶段。接近大脑机制的类脑芯片,最近几年有了很大的进展。量子启发模型比较特殊,已经成功做成了样片,预计在2020~2022年上市。总的来说,如果我们把AI芯片目前的状况与英特尔x86时代进行类比,可以说我们现在正处于AI芯片的“286阶段”,或者说AI芯片刚处于AI1.0时代;而以存内计算、模拟计算和新型存储器(如NVM)为代表的AI2.0时代将会在未来几年到来。

表1.2 AI芯片研发和产业化概况(截至2020年9月) Du+T6vv1bfAqpPgc19U8tprIr2K80edCUyl1t4RffrHy87QI8kxN+34tAT03O1ZQ

img
点击中间区域
呼出菜单
上一章
目录
下一章
×