购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

绪论

近年来,互联网领域的热词之一就是“5G”,5G作为国家信息化发展战略中建设网络强国的重要举措吸引了大量的关注。5G网络速度将是4G的10~100倍,那么5G与4G在核心技术上是否有根本的区别呢?实际上,移动通信系统中最基础的基带处理无外乎调制解调(解决信息如何在无线电波中进行传输的问题)和多址技术(解决容纳多个用户接入网络的问题)。1G到2G的核心技术变革在于从模拟信号到数字信号处理机制的转变,2G到3G的核心技术区别在于从窄带时(码)分多址技术向宽带码分多址技术的转变,3G到4G的核心技术转变在于码分多址向更高效的正交频分复用多址接入(Orthogonal Frequency-Division Multiple Access,OFDMA)技术的演变升级,从这个角度来看,5G与4G都是采取OFDMA(4G上行采用DFT-s-OFDM,5G上行调制方式可以灵活选择)+MIMO(Multiple Input Multiple Output,多输入多输出)的调制复用多址技术,似乎没有颠覆性的区别。当然,5G在4G的基础上为了实现更高的速率,提供了更大带宽传输,同时在编码效率上进一步优化提升,物理层的系统级参数配置方面也更加灵活多变,协议栈也进行了些许的改动调整,但是这些似乎都不足以促使5G产业“姗姗来迟”,貌似理应与4G“捆绑打包发售”。那么产业中到底是什么根本性的因素决定着5G产业的发展进程呢?

5G的通信网络架构设计是应用驱动的,主要面向更大的带宽(速率)、更低的时延(车联网)以及广域物联网络。现阶段3GPP标准化工作推进主要聚焦在大带宽和低时延。大带宽首先是通过提供连续更大(相比4G)的频谱来实现,那么LTE(Long Term Evolution,长期演进)通过更多载波聚合技术就可以支持(目前业内最大能够提供3~5载波聚合的能力)。因此,单纯实现大带宽的能力并不是5G的“绝活”。大带宽意味着芯片中负责数字信号处理(Digital Signal Processing,DSP)的器件运算能力提升,实现4G/5G OFDM调制复用技术的关键在于快速傅里叶变换(Fast Fourier Transform,FFT)的计算能力,FFT的计算点位(抽头)伴随着带宽增加而相应增加,因此计算的复杂度也是呈指数提升的,从这一层面看来,逐步通过LTE载波聚合技术实现更高的带宽传输也可以看作是实现5G DSP芯片计算能力的一种技术储备和过渡。那么,如何在实现大带宽传输能力的同时保证可靠性以及较低的时延呢?这里主要取决于两个因素:高效的解码能力和对于时频资源的高速调度。而这两个因素本质上又与芯片的实现架构以及处理能力息息相关,因此笔者尝试先从芯片技术的架构设计进行一些探讨。

芯片设计有两种架构设计思路:一种是精简指令集计算(Reduced Instruction Set Com⁃ puting,RISC)简指令集;另外一种是复杂指令集计算(Complex Instruction Set Computing,CISC)。CISC的典型代表是英特尔(Intel)公司的x86芯片系列,在20世纪90年代,大多数个人计算机(PC)的微处理器采用的都是CISC体系,CISC是一种为了便于编程和提高内存访问效率的设计体系,其主要特点是后向兼容性较好,软件编程较容易,主要依赖于硬件实现,而采取大量的复杂指令、可变的指令长度、多种寻址方式等设计理念造成指令集以及芯片的设计比较复杂,不同的指令需要不同的时钟周期来完成,效率优化提升空间较小。RISC的典型代表是ARM公司的ARM芯片系列,该架构采取高度优化精简指令集和通用寄存器设计,只包含一些简单、基本、长度固定的指令,通过组合形成复杂指令。另外,RISC的指令寻址种类较少、执行周期较短、芯片并行处理能力强、流水线效率更高,在使用相同的芯片技术和相同的运行时钟下,RISC系统的运行速度大约是CISC的2~4倍。但同时也暴露出一些问题,例如编译器需要重新设计、编写代码量变得庞大、需要较大的程序存储空间。总体来说,采取CISC架构的芯片设计解码效率较低,已经越来越不适用于未来移动互联网中高速并发数据处理的时延需求,目前仍然存在的X86芯片架构主要为了兼容大量的X86平台上的软件以及对处理效率要求不高的大数据分布式存储工作站。而RISC体系的ARM指令的最大特点是处理效率较高、能耗较少,因此,ARM处理器广泛用于智能移动终端,也是几种主流的嵌入式处理体系结构之一。

在硅谷著名投资人吴军博士所著《见识》一书中有一个小故事,英特尔公司当年富有传奇色彩的首席执行官安迪·格鲁夫生前在一次会议上回答过大家一个提问:在工作站时代为什么太阳微系统公司、美国硅图公司和摩托罗拉公司的RISC处理器做不过英特尔?当时做工作站处理器的几家公司,都是每36个月左右推出一款性能是之前4倍的处理器,而英特尔每18个月就推出一款性能是之前2倍的处理器,虽然从效果上讲大家是按照同一个速度进步的,但是英特尔从商业模式上屡屡推出“爆款”,尽管只走了半步,却及时地刷新了大家的记忆。当然,也不是“爆款”的频率越高越好,从商业模式上讲“爆款”变化太小不足以吸引眼球,从终端厂家产品推陈出新的角度,太快的研发周期意味着成本的显著提升,而芯片性能研发质量也难以得到保障。另外,5G网络的大带宽提供的目标吞吐率是4G网络的10倍,目标时延要求也是4G的1/10左右,因此对芯片的高速解码能力以及处理计算效率的要求也更加严苛,业内更倾向于选择低能耗的RISC架构作为终端芯片设计。从上面这个小故事可以看出,更高性能的芯片研发是有3~4年周期的,这是影响5G产业链中芯片(网络侧、终端侧都涉及)成熟度的重要原因之一。当然,目前CISC架构也吸取了RISC的一些诸如并行处理的优点,在处理效率方面也得以进一步提升,不过这是另外一个话题。

随着移动通信网络的高速发展,运营商部署的2G/3G/4G/5G网络会长期共存,因此需要终端芯片对这些网络制式的基带处理模块以及射频单元有更高程度的集成。另外,随着移动互联网业务的发展,更多的业务处理模块也要求移动智能终端处理芯片集成能力越来越强,甚至有想法将终端的射频器件也集成于芯片之中(SoC,System on Chip),这就需要采用超深亚微米(Very Deep Sub-Micron,VDSM)、纳米器件这些工艺技术(目前终端芯片普遍已经采用纳米技术)。另外,随着纳米器件的体积更小,在同样的体积下可以塞进更多的电子元器件,处理性能更强、功耗更低,终端厂商可以有更多的空间为智能手机设计更大的电池或者更纤薄的机身,对于5G这样大带宽高功耗的终端,手机的续航能力也是推进产业成熟的重要因素之一。可以想象,一块指甲盖大小的芯片容纳下几十亿个纳米器件,并且要保证芯片的稳定运行,如何能确保如此高的可靠性呢?归纳来说主要从两个方面,一个是元器件通过原始材料制作的工艺水平,另一个是软硬件编程配合,这两方面的技术细节在此不展开探讨,不过回顾一下纳米技术产品的研发周期也有助于理解决定5G产业发展的另一个客观且重要的因素。

2012年4月,美国高通公司(Qualcomm)发布了基于28nm技术的高通骁龙Snap⁃dragon S4系统级芯片。

2014年4月,高通发布了基于22nm技术的两款最新型64位移动处理系统级芯片Snapdragon 808与810。

2017年6月,在上海MWC(世界移动大会)上,高通推出了基于14nm工艺的骁龙450芯片。

2016年11月,高通宣布开发骁龙835处理器,其最大特色是采用10nm制程工艺打造,同时支持Quick Charge 4.0快充技术。

2018年12月,高通发布了全球首款7nm PC平台骁龙8cx。7nm终端芯片在2019年底推出。

全球芯片半导体产业为了实现更低功耗、更高集成度等目标,已步入纳米技术时代。从以上纳米技术的研发周期可以看出,纳米器件随着规格尺寸的减小,研发周期将会越来越长,到了一定的尺寸(目前极限是5nm),再往下缩减会越来越难,相应的工艺实现层面也越来越复杂,除了像FD-SOI(全耗尽绝缘体硅)、硅光子、3D堆叠等工艺技术之外,对于新型材料的选择,各大企业也在逐步加大研发投入。目前制造芯片的半导体原材料以硅为主,硅的物理特性限制了芯片的发展空间,一些新型的化学材料如III-V族化合物(镓铝砷、镓砷磷)、碳纳米管、石墨烯等由于其独特的特性(例如,IBM表示,石墨烯中的电子迁移速度是硅材料的10倍,石墨烯芯片的主频在理论上可达300 GHz,而散热量和功耗却远低于硅基芯片。麻省理工学院的研究发现,石墨烯可使芯片的运行速率提升百万倍。)正在受到产业越来越高度的关注。不过也要看到,新材料技术在实际产业应用的时间可能比预期更长,例如,石墨烯材料以2004年实验室首次提纯到2018年4月初步解决石墨烯基芯片所需要的带隙方法,走过了14年光景。

除了芯片(网络/终端)的这个因素,另一业界一直在讨论的关于5G组网实现的因素就是5G的频率该如何选择。众所周知,按照香农公式,通信系统高速数据传输的一个必要条件就是提供更大的无线信道系统带宽。通信射频信号本质上是经过调制在某一特定的频率上通过无线电波弥散振荡的方式在空间进行传播的。某一频率资源一旦划分给某一个制式的通信系统,一般情况下是不会再被随意调整划拨作为其他用途的,因此,业界一般认为频率资源就像国家土地资源一样,属于不可再生资源。随着无线电波与人类的关系日益密切,使用场景也越来越广泛,要知道不是只有移动通信才采用无线电波的,广播电视、广播电台、航空通信调度、军用雷达通信、卫星通信等无一不在使用稀缺而宝贵的无线电波频率资源。由于低频率的无线电波传播能力较好,业界在关于无线信道的传输模型理论和实践研究方面也比较深入,作为民用用途的通信设施一般都青睐较低的频率(所谓较低的频率一般指3 GHz以下)作为信号发射的载体,这样的好处也显而易见,建站数量可以不用那么多,投资没有那么巨大,信号的传输质量也比较可靠。而到了5G时代,随着低频资源越来越稀缺,业界也把目光锁定了高频率,甚至超高频率(俗称毫米波,一般在28 GHz以上)。为了解决高频无线电波穿透损耗过大这个问题,业界一直倾向选择源于相控雷达阵列技术的高增益波束赋形天线技术,例如,在TD-SCDMA/TD-LTE设备中就已经采用的8T8R(T、R分别代表发射和接收的物理通道)天线技术。从原理上而言,通道数量越多,天线的波束赋形增益和对抗高频衰减的能力就越好。而受限于所分配的频率,在3G/4G时代的TDD系统中,如果要采取更多通道的天线技术,如现网使用的大规模阵列天线(Massive MIMO),为了满足天线振子之间的物理隔离需求,就需要将天线本身的尺寸做得很大。而这一天线工艺实现问题在5G的高频段有所缓解,天线尺寸已经不再是业界所关注的重点问题。通过天线技术创新解决的另一个问题是用户和系统传输速率,在4G时代,为了提升用户传输速率主要使用了单用户MIMO技术,用户设备(UE)通过计算逆向信道矩阵以恢复原始数据流(4G也有多用户MIMO,但实现原理与Massive MIMO有所不同,与单用户MIMO一样都是基于终端侧码本求逆实现的),而4G时代的单用户MIMO对于覆盖环境比较挑剔,覆盖弱场实现的效果不甚理想。5G Massive MIMO阵列天线通过通道预编码矩阵技术将复杂性从UE侧转移到基站侧,从而实现多用户MIMO,UE侧每个数据流由单独的接收器独立接收,基站侧使用64~512单元的天线阵列进行波束赋形(如图0-1所示),可减少对使用多用户MIMO的相邻用户的干扰,这样保证了用户即使处于覆盖边缘的区域也能通过基站的配对实现多用户MIMO传输,大规模阵列天线技术在5G上的应用是近年来通信技术从理论研究到工程实践最伟大的一次创新,也是未来高频率TDD制式通信系统的必然选择。

未来移动通信技术在传统的通信数字信号处理层面的界限越来越模糊,通常作为通信系统“前端”出现的终端和天线在5G时代之前往往并不被认为是通信技术更新换代的幕后推手。随着信息编码和处理技术的越发成熟,通信理论研究的提升空间越来越受到压缩,而产业落地实现反而变成了关注的焦点,也许在未来很长一段时间,如何提升元器件的性能、如何在材料技术上有所突破、如何提升终端或者天线技术的工艺水平,才是通信产业关注的重点。

978-7-111-67139-8-Chapter01-1.jpg

图0-1 Massive-MIMO(3D-MIMO)阵列天线与传统8T8R天线

a)传统8T8R天线 b)Massive-MIMO(3D-MIMO)阵列天线 nMVKSPj/lFx8AYE0C4v2a5quvro0QrHgV54fkI5HJF2eS/OvULa6h4YqK8DmDCwz

点击中间区域
呼出菜单
上一章
目录
下一章
×