算力是元宇宙最重要的基础设施。
构成元宇宙的图像内容、区块链网络、人工智能技术都离不开算力的支撑。元宇宙并不是网络游戏,但与游戏类似的是,元宇宙是一个承载活动的虚拟世界。算力支撑着元宇宙虚拟内容的创作与体验,更加真实的建模与交互需要更强的算力作为前提。
以算力为支撑的人工智能技术能够辅助用户创作,生成更加丰富真实的内容。依靠算力的工作量证明机制(POW)是目前区块链使用最广泛的共识机制,算力的护城河保障着数字世界的去中心化价值网络。可以说,算力是通向元宇宙的重要阶梯。
人类文明的发展离不开算力的进步。在原始人类有了思考之后,才产生了最初的计算。从部落社会的结绳计算到农业社会的算盘计算,再到工业时代的计算机计算。
计算机计算也经历了从20世纪20年代的继电器式计算机,到20世纪40年代的电子管计算机,再到20世纪60年代的晶体管计算机。其中,晶体管计算机的计算速度可以达到每秒几十万次。集成电路的出现令计算速度从20世纪80年代的每秒几千万次,发展到现在的每秒几亿亿次。
人体生物研究显示。大脑神经每秒跳动达到14亿亿次,这也让14亿亿次成为计算机、人工智能超过人脑的拐点。可见,人类智慧的进步和人类创造的计算工具的速度有关。从这个意义来讲,算力是人类智慧的核心。
过去,算力更多地被认为是一种计算能力,而大数据时代则赋予了算力新的内涵,包括大数据的技术能力、系统计算程序的能力。综合来看,算力可以被理解为数据处理能力。2018年诺贝尔经济学奖获得者William D. Nordhaus在《计算过程》一文中对算力进行定义:“算力是设备根据内部状态的改变,每秒可处理的信息数据量。”
算力包括四个部分:一是系统平台,用来存储和运算大数据;二是中枢系统,用来协调数据和业务系统,直接体现着数据治理能力;三是场景,用来协同跨部门合作的运用;四是数据驾驶舱,直接体现着数据治理能力和运用能力。可见,算力作为大数据运算程序的能力,是多个功能运用所形成的环世界的融合与累加。
当我们把这项能力用以解决实际问题时,算力便改变了现有的生产方式,增强了存在者的决策能力和信息筛选能力。与此同时,多元化的场景应用和不断迭代的新计算技术,推动计算和算力不再局限于数据中心,开始扩展到云、网、边、端全场景。计算开始超脱工具属性和物理属性,演进为一种泛在能力,实现新的蜕变。
从作用层面上看,伴随人类对计算需求的不断升级,计算在单一的物理工具属性之上,逐渐形成了感知能力、自然语言处理能力、思考和判断能力。借助大数据、人工智能、卫星网、光纤网、物联网、云平台、近地通信等一系列数字化软硬件基础设施,以技术、产品的形态,加速渗透进社会生产及生活的各方面。
小到智能计算机、智能手机、平板等电子产品,大到天气预报、便捷出行、医疗保障、清洁能源等民用领域应用,都离不开计算的赋能支撑。计算已经实现从“旧”到“新”的彻底蜕变,成为人类能力的延伸。
正如美国学者尼葛洛庞帝在《数字化生存》一书的序言中所言,“计算,不再只与计算机有关,它还决定了我们的生存”。算力正日益成为影响人们社会生活方式的重要因素。
算力是构建元宇宙最重要的基础设施。构成元宇宙的虚拟内容、区块链网络、人工智能技术都离不开算力的支撑。
虚拟世界的图形显示离不开算力的支持。计算机绘图能够将模型数据按照相应流程渲染到整个画面的每一个像素,因此所需的计算量巨大。无论是应用场景的互动、玩家的各种游戏,还是精细的3D模型,里面的模型大部分都是通过多边形建模(Polygon Modeling)创建出来的。
3D场景中的人物的移动、动作,乃至根据光线发生的变化,则是计算机根据图形学进行计算并实时渲染出来的。这个渲染过程需要经过顶点处理、图元处理、栅格化、片段处理及像素操作这五个步骤,而每一个步骤都离不开算力的支持。
算力支撑着元宇宙虚拟内容的创作与体验,更加真实的建模与交互需要更强的算力作为前提。游戏创作与显卡发展的飞轮效应,为元宇宙构成了软硬件基础。从游戏产业来看,每一次重大的飞跃,都源于计算能力和视频处理技术的更新与进步。
游戏3A大作往往以高质量的画面作为核心卖点,充分利用甚至压榨显卡的性能,形成“显卡危机”的游戏高质量画面。游戏消费者在追求高画质、高体验的同时,也会追求强算力的设备,从而形成游戏与显卡发展的飞轮效应,这在《极品飞车》等大作中已出现。
以算力为支撑的人工智能技术将辅助用户创作,生成更加丰富真实的内容。构建元宇宙最大的挑战之一是如何创建足够的高质量内容,专业创作的成本高得惊人。3A大作往往需要几百人的团队数年的投入,而UGC平台也会面临质量难以保证的困难。为此,内容创作的下一个重大发展将是人工智能辅助人类创作。
虽然今天只有少数人可以成为创作者,但这种人工智能补充模型将使内容创作完全民主化。在人工智能的帮助下,每个人都可以成为创作者,这些工具可以将高级指令转换为生产结果,完成众所周知的编码、绘图、动画等繁重工作。除创作阶段外,在元宇宙内部也会有NPC参与社交活动。这些NPC具有自主决策能力,从而进一步丰富数字世界。
依靠算力的工作量证明机制(POW)则是目前区块链使用最广泛的共识机制,去中心化的价值网络需要算力保障。记账权的争夺(也是通证经济激励的争夺)通过算力付出的竞争来决定胜负准则。从经济角度看,这也是浪费最小的情况。为了维护网络的可信与安全,需要监管和惩戒作恶节点、防止51%攻击等,这些都是在POW的约束下进行的。
元宇宙对算力提出了极高的要求,尽管算力作为元宇宙最重要的基础设施,已经极大地改变了社会面貌。需要指出的是,当前的算力架构依然无法满足元宇宙对于低门槛、高体验的需求。但是,边缘计算、量子计算和芯片架构的发展将推动算力的发展,为元宇宙的发展扫清障碍。
(一)边缘计算
通常,在海量的数据中,既包括一次性的数据,又包括有价值的数据,数据种类杂乱无章。想要对数据进行梳理和筛选,就离不开计算机运算。在本地计算机算力成本等限制下,越来越多的应用依赖于云计算,因而对于云计算算力的需求也在逐步加大。当然,云计算在提供服务的同时,算力系统的优化也在同步进行中。
然而,云计算虽强大,却也存在其局限性。一般而言,当对数据进行处理时,若只通过云计算来进行数据处理,则不可避免地导致数据处理拖沓的情况。从整个流程来看,所有数据先通过网络全部传输到中心机房。随后,通过云计算进行处理,待处理完成后,再将结果传输到相应位置。而对于这样的数据处理过程会有两个较为突出的问题。
一是算力的时效性。数据反馈会出现时延,海量数据传输是这个问题形成的主要原因,数据在有限的带宽资源中传输会出现阻塞的情况,进而使响应时间加长。二是算力的有效性。所有数据都会传输到中心机房,但其中部分数据是没有使用价值的,因为缺少预处理过程,这些数据会导致云计算算力的浪费。
“中心—边缘—端”的运作模式适时解救了云计算的困窘,并在电信网时代得到了充分应用,也在一定程度上保证整个网络有序且有效地运作。其中,中心指的是程控交换中心,边缘指的是程控交换机,而端则指的是终端,如电话。
互联网时代,“中心—边缘—端”模式得以延续,“数据中心—CDN—移动电话/PC”是其在互联网时代的应用。其中,内容分发网络(Content Delivery Network,CDN)的设计是为了尽量避免网络拥挤的情况,为客户就近提供所需内容,达到提高用户访问网站的响应速度的目的。这种边缘化的设计能使在线内容的分发或传输得到优化,进而提高网络效率和用户体验。
然而,传统CDN也存在局限性。传统CDN注重缓存,这显然不能满足“云计算+物联网”时代。在“云计算+物联网”时代,数据大量爆发,所需要传输的数据将会以几何形式增加,对于整个网络的承载将会是极大的考验。
从传统CDN的运作模式来看,终端所产生的数据需要回溯到中心云进行处理,在海量数据传输的情况下,将会出现使用成本高和技术实现难这两个较为突出的问题。从使用成本来看,传统CDN使用成本一直居高不下,最主要的原因是资费收取不够灵活,无法实现按需收取,而技术问题则表现在带宽上。以移动网为例,传统CDN系统一般部署在省级IDC机房,而非移动网络内部。因此,数据需要通过较长的传输路径才能到达数据中心。
显然,传统CDN已不能满足“云计算+物联网”时代日益增加的海量数据对存储、计算及交互需求的要求。为提升数据处理的时效性与有效性,边缘计算应运而生。这个“边”就代表了边缘的节点,边缘计算顾名思义,指在靠近数据源头的一侧为中心平台就近提供计算服务。边缘计算的理念和章鱼有些类似,这里的节点可以理解为章鱼的触角,属于分布式计算的一种。
在更靠近终端的网络边缘上提供服务是边缘计算最大的特点。对于这样的设计,能满足各行业基于数字化,在敏捷连接、实时业务、数据优化、应用智能、安全与隐私保护等方面的关键需求。边缘计算具备的优势对智能化具有促进作用,能够串联起物理和数字两个世界。
作为继分布式计算、网格计算、云计算之后的又一新型计算模型,边缘计算是以云计算为核心,以现代通信网络为途径,以海量智能终端为前沿,集云、网、端、智四位一体的新型计算模型。可以说,边缘计算是解决未来数字化难题的重要路径。
当然,对边缘计算的接纳与开发也需要经历一个漫长的过程。美国容错技术有限公司首席技术官John Vicente将边缘计算的成熟度分为四个阶段,从边缘计算1.0的孤立的静态系统到边缘计算4.0的无形的自适应、自管理系统。
1.0阶段涉及如何安全地管理和连接机器与设备以启用数字边缘。这一阶段只具备在数字世界实现业务运营所需要的基本能力。
在2.0阶段,边缘计算将开始采用开放的软件定义技术。软件定义技术是指从底层计算机硬件中提取各项功能,并使这些功能能够在软件中执行。例如,借助软件定义网络(SDN)技术,企业通过集中控制平台修改包括路由表、配置和策略在内的各种属性,而不必逐一修改各交换机的属性,从而更轻松地管理网络。软件定义技术促成了基于云技术的安全服务的实现,使企业无须自己拥有防火墙和入侵检测/防护系统等。
在3.0阶段,IT和OT将实现真正的融合,具备一系列弹性和实时能力。如今,仍然有很多IT未触达的工业领域。例如,工厂需要机械控制系统以执行确定性行为,并保障安全性。这些机械控制系统诞生于操作技术领域,而不是信息技术产业。
落实边缘计算3.0的功能是成功迈向边缘计算4.0的必要条件。在4.0阶段,IT和OT的基础设施和运营将与人工智能(AI)相融合,一个自管理、自愈和自动化的工业领域即将诞生。一旦机器出现问题,AI系统就能进行诊断和修复——无须人工干预。
边缘计算是提升算力的必然趋势,边缘计算可以为所有设备提供高质量的交互式体验,从而增加人们在元宇宙的体验感,为算力支撑元宇宙保驾护航。
(二)从GPU到DPU
很长一段时间以来,算力的天下都由中央处理器(CPU)和图形处理单元(GPU)平分。也是因为CPU和GPU为新超大规模数据中心提供了的动力,才使计算摆脱了PC和服务器的局限。
自1950年以来,中央处理器就一直是每台计算机或智能设备的核心,是大多数计算机中唯一的可编程元件。并且,CPU诞生后,工程师也一直没放弃对于让CPU以消耗最少的能源实现最快的计算速度的努力。即便如此,人们还是发现CPU做图形计算太慢,在这样的背景下,图形处理单元(GPU)应运而生。
英伟达提出了GPU的概念,将GPU提升到了一个单独计算单元的地位。GPU是在缓冲区中快速操作和修改内存的专用电路,因为可以加速图片的创建和渲染,所以得以在嵌入式系统、移动设备、个人计算机以及工作站等设备上被广泛应用。1990年以来,GPU逐渐成为了计算的中心。
事实上,最初的GPU还只是用来做实时图形处理的。后来,凭借其优秀的并行处理能力,GPU已经成为各种加速计算任务的理想选择。随着机器学习和大数据的发展,很多公司都会使用GPU加速训练任务的执行,这也是今天在数据中心中比较常见的用例。
大多数的CPU不仅期望在尽可能短的时间内更快地完成任务以降低系统时延,还需要在不同任务之间快速切换并保证实时性。正是因为这样的需求,CPU往往都会串行地执行任务。GPU的设计则与CPU完全不同,它期望提高系统的吞吐量,在同一时间竭尽全力处理更多的任务。
设计理念上的差异最终反映在CPU和GPU的核心数上,GPU往往具有更多的核心数。当然,CPU和GPU的差异也很好地形成了互补。
近几年,因为系统中的CPU承受越来越多的网络和存储工作负载,已有的通用CPU和GPU开始不能完全满足快速变化的应用需求。据IDC统计,近10年来全球算力增长明显滞后于数据的增长。每3.5个月全球算力的需求就会翻一倍,远远超过了当前算力的增长速度。
在此驱动下,全球计算、存储和网络基础设施也在发生根本转变。一些复杂的工作负载,在通用的CPU上不能得到很好地处理。或者说,以CPU为中心的数据中心架构已经不能满足需求,因为只有以数据为中心才能更好地满足市场和应用的需求。
英伟达网络事业部亚太区市场开发高级总监宋庆春此前就表示:“以前计算规模和数据量没那么大,冯·诺依曼架构很好地解决了提高计算性能的问题。随着数据量越来越大,以及AI技术的发展,传统的计算模型会造成网络拥塞,继续提升数据中心的性能将面临挑战。”
数据处理单元(DPU)的出现或将解决这一困境。作为最新发展起来的专用处理器的一个大类,DPU为高带宽、低时延、数据密集的计算场景提供计算引擎。当前,DPU已成为以数据为中心的加速计算模型的三大支柱之一,其还将成为CPU的卸载引擎,释放CPU算力到上层。
按照技术出现的时间顺序和特点,DPU的发展可以分为三个阶段。第一阶段即智能设备阶段,这一阶段也可以称为DPU的史前时代。在这一阶段,解决节点间流量问题的最简单的方式是增加网卡的处理能力,通过在网卡上面引入SoC或者FPGA的方式加速某些特定流量应用,从而加强网络的可靠性,降低网络时延,提升网络性能。
Xilinx和Mellanox在这个领域起步较早,可惜由于战略能力不足,错失了进一步发展的机会,逐渐被DPU取代,最终被淘汰。其中,Mellanox被Nvidia收购,Xilinx被AMD收购。智能网卡作为DPU的应用产品而存在。
第二阶段是数据处理芯片阶段,这个阶段也是数据处理芯片真正开始被重视的阶段。最早由Fungible在2019年提出,但没有引起太大反响。Nvidia将收购的Mellanox重新包装之后,2020年10月又重新定义了DPU这个概念,这一次的重新定义使DPU这一概念一炮而红。
具体来看,DPU被定义为一种新型可编程处理器,集三个关键要素于一身,包括:行业标准的、高性能的、软件可编程的多核CPU,通常基于已应用广泛的Arm架构与SoC组件密切配合;高性能网络接口,能以线速或网络中的可用速度解析、处理数据,并高效地将数据传输到GPU和CPU;各种灵活和可编程的加速引擎,可以卸载AI、机器学习、安全、电信和存储等应用,并提升性能。
第三阶段则是基础设施芯片阶段。第三阶段的方案由Intel提出,变成了“FPGA+Xeon-D”的模式,通过PCB的方式放在一个智能网卡上。不难发现,Intel将IPU定位成在host CPU上面“外挂”的一个小CPU。并且,未来这个“外挂”的CPU和FPGA会被封装在一个芯片中,形成通过PCI-e总线互联的两个CPU系统。
当然,无论处于哪个阶段,这些DPU功能对于实现安全的、裸性能的、原生云计算的下一代云上大规模计算都具有重要意义。Nvidia首席执行官黄仁勋此前在演讲中表示,“它将成为未来计算的三大支柱之一”“CPU用于通用计算,GPU用于加速计算,而DPU则用于数据处理”。
一方面,GPU更安全。因为控制平面可以在系统内和系统集群之间与数据平面分离,DPU还可以执行原本需要CPU处理的网络、存储和安全等任务。这就意味着如果在数据中心中采用了DPU,那么CPU的不少算力可以被释放出来。
另一方面,DPU还释放了服务器的容量。在一些具有大量I/O和沉重虚拟化系统的内核成本将缩减一半,因此吞吐量提高了2倍。除了内核成本,还要计算整个机器的成本,包括其内存和I/O,以及释放的容量。
此外,DPU丰富的、灵活的和可编程的加速引擎可减轻与改善AI和机器学习应用的性能。所有的这些DPU功能对于实现隔离的裸机云原生计算至关重要,可以预见,从CPU、GPU再到DPU的架构将会让管理程序、调度程序都变得更加容易。从边缘到核心数据中心,统一架构、统一管理、统一调度或将在不久之后得以实现。
(三)量子计算
量子计算的发展也将进一步变革算力。
通常来说,量子计算是一种遵循量子力学规律调控量子信息单元计算的新型计算模式,它与现有计算模式完全不同。
在理解量子计算的概念时,通常将它与经典计算相比较。在经典计算机中,信息的基本单位是比特。计算机所做的事情都可以被分解成0或1的简单操作。
与传统计算机由比特构成的方式类似,量子计算机由量子比特(quantum bits)构成,一个量子比特对应一个状态(state)。但是,比特的状态是一个数字(0或1),而量子比特的状态是一个向量。更具体地说,量子比特的状态是二维向量空间中的向量,这个向量空间称为状态空间。
经典计算使用二进制的数字电子方式进行运算,而二进制总是处于0或1的确定状态。于是,量子计算借助量子力学的叠加特性,能够实现计算状态的叠加。即不仅包含0和1,还包含0和1同时存在的叠加态(superposition)。
普通计算机中的2位寄存器一次只能存储1个二进制数(00、01、10、11中的一个),而量子计算机中的2位量子比特寄存器可以同时保持所有4个状态的叠加。当量子比特的数量为 n 个时,量子处理器对 n 个量子比特执行一次操作就相当于对经典比特执行2 n 次操作。
此外,加上量子纠缠的特性,量子计算机相较于当前使用最强算法的经典计算机,理论上将在一些具体问题上有更快的处理速度和更强的处理能力。
近年来,量子计算技术与产业呈现加速发展态势,而有关量子计算技术的突破多与三个因素有关,即量子比特能够维持量子态的时间长度、量子系统中连接在一起的量子比特的数量和对量子系统出错的把握。
量子比特能够维持量子态的时间长度,被称为量子比特相干时间。其维持叠加态(量子比特同时代表1和0)的时间越长,它能够处理的程序步骤就越多,因而可以进行的计算就越复杂。其中,IBM率先将量子技术引入实用计算系统,将量子比特相干时间提高到了100微秒。而当量子比特相干时间达到毫秒级时,将足以支持计算机解决当今经典计算机解决不了的问题。
从量子系统中连接在一起的量子比特的数量突破来看,2019年10月,谷歌公司在《Nature》期刊上宣布了使用54个量子比特处理器Sycamore,实现了量子的优越性。具体来说,Sycamore能够在200秒内完成规定操作,而相同的运算量在超级计算机Summit上则需要1万年才能完成。这项工作是人类历史上首次在实验环境中验证了量子的优越性,也被《Nature》认为在量子计算的历史上具有里程碑意义。
2020年,中国团队研发的量子计算机“九章”问世,挑战了谷歌量子的优越性,实现算力全球领先。“九章”作为一台76个光子100个模式的量子计算机,其处理“高斯玻色取样”的速度比超级计算机“富岳”快一百万亿倍。这是史上第一次,一台利用光子构建的量子计算机的表现超越了运算速度最快的经典超级计算机。
量子力学是物理学中研究亚原子粒子行为的一个分支,而运用神秘的量子力学的量子计算机,超越了经典牛顿物理学极限的特性,为实现计算能力的指数级增长提供了可能。
例如,针对人工智能产生的量子算法潜在应用就包括量子神经网络、自然语言处理、交通优化和图像处理等。其中,量子神经网络作为量子科学、信息科学和认知科学多个学科交叉形成的研究领域,可以利用量子计算的强大算力提升神经计算的信息处理能力。
在自然语言处理领域,2020年4月,剑桥量子计算公司宣布在量子计算机上执行的自然语言处理测试获得成功。这是全球范围内量子自然语言处理应用获得的首次成功验证。研究人员利用自然语言的“本征量子”结构将带有语法的语句转译为量子线路,在量子计算机上实现程序处理的过程,并得到语句中问题的解答。而利用量子计算,将有望实现自然语言处理在“语义感知”方面的进一步突破。
时代在变化,算力构筑了元宇宙技术体系的底层逻辑,其对人和世界的影响已经嵌入社会生活的各方面。算力打造的元宇宙将是一个人人都能从中获益的时代,是一个跟过去完全不同的时代。立足算力,发展算力,已经势在必行。
算力随着技术的发展,将会从过去中心化的机房运算模式分化为前端设备、边缘计算、云计算等多维度的实时运算处理方式。