本章首先介绍了智能网联汽车自动化的基本知识和实现自动化驾驶的智能感知传感器,包括超声波传感器、毫米波雷达、激光雷达和视觉传感器。在此基础上介绍智能网联汽车路侧感知常见应用场景,进一步介绍路侧智能感知系统,包括交通标志识别系统和交通信号灯识别系统。其次,介绍智能网联汽车仿真相关内容,如智能网联汽车驾驶自动化仿真定义、体系、系统构成和测试流程。最后介绍智能网联汽车驾驶自动化仿真测试评价体系、测试平台搭建技术要求和常见的测试内容。
1.了解智能网联汽车及自动化的概念。
2.掌握智能网联汽车感知传感器技术。
3.掌握智能网联汽车路侧智能感知系统。
4.掌握智能网联汽车驾驶自动化仿真测试流程。
5.了解智能网联汽车虚拟仿真测试评价体系和测试平台搭建技术要求。
6.掌握智能网联汽车驾驶自动化系统测试内容。
2020年2月,国家发展和改革委员会联合科技部、工信部、财政部、交通运输部、商务部等11部委印发《智能汽车创新发展战略》,旨在加快推进智能网联汽车的创新发展。智能网联汽车已经进入发展的快车道,其所涉及的知识和技术与传统汽车有较大差别,因此必须重新构建,以满足智能网联汽车快速发展对人才的需求。智能网联汽车如何感知外界行驶环境?其驾驶自动化功能如何进行测试评价?
1.智能网联汽车
从狭义讲,智能网联汽车是指搭载先进的车载传感器、控制器、执行器等装置,并融合现代通信与网络技术,实现车与X(车、路、行人、云端等)智能信息交换、共享,具备复杂环境感知、智能决策、协同控制等功能,可实现车辆“安全、高效、舒适、节能”行驶,并最终可实现替代人来操作的新一代汽车。
从广义讲,智能网联汽车是以车辆为主体和主要节点,融合现代通信和网络技术,使车辆与外部节点实现信息共享和协同控制,以达到车辆“安全、有序、高效、节能”行驶的新一代多车辆系统。
智能网联汽车是一种跨技术、跨产业领域的新兴汽车体系,不同角度、不同背景对它的理解是有差异的,各国对于智能网联汽车的定义不同,叫法也不尽相同,但终极目标是一样的,即可上路安全行驶的无人驾驶汽车。
智能网联汽车更侧重于解决安全、节能、环保等制约产业发展的核心问题,其本身具备自主的环境感知能力,其聚焦点是在车上,发展重点是提高汽车安全性。
2.智能网联汽车自动化分级
2021年8月20日,由工业和信息化部提出、全国汽车标准化技术委员会归口的GB/T 40429—2021《汽车驾驶自动化分级》由国家市场监督管理总局、国家标准化管理委员会批准发布(国家标准公告2021年第11号文),于2022年3月1日起实施。
该标准为《国家车联网产业标准体系建设指南(智能网联汽车)》规划的分类和编码类推荐性国家标准项目(体系编号102-3),规定了汽车驾驶自动化分级遵循的原则、分级要素、各级别定义和技术要求框架,旨在解决我国汽车驾驶自动化分级的规范性问题。
标准规定了汽车驾驶自动化功能的分级,适用于具备驾驶自动化功能的M类、N类汽车,其他类型车辆可参照执行。
基于驾驶自动化系统能够执行动态驾驶任务的程度,根据在执行动态驾驶任务中的角色分配以及有无设计运行范围限制,将驾驶自动化分成0~5级,共6个等级。其中,0~2级为驾驶辅助,系统辅助人类执行动态驾驶任务,驾驶主体仍为驾驶人;3~5级为自动驾驶,系统在设计运行条件下代替人类执行动态驾驶任务,当功能激活时,驾驶主体是系统。各级名称及定义如下:
1)0级驾驶自动化——应急辅助(Emergency Assistance)系统不能持续执行动态驾驶任务中的车辆横向或纵向运动控制,但具备持续执行动态驾驶任务中的部分目标和事件探测与响应的能力。
2)1级驾驶自动化——部分驾驶辅助(Partial Driver Assistance)系统在其设计运行条件下持续地执行动态驾驶任务中的车辆横向或纵向运动控制,且具备与所执行的车辆横向或纵向运动控制相适应的部分目标和事件探测与响应的能力。
3)2级驾驶自动化——组合驾驶辅助(Combined Driver Assistance)系统在其设计运行条件下持续地执行动态驾驶任务中的车辆横向和纵向运动控制,且具备与所执行的车辆横向和纵向运动控制相适应的部分目标和事件探测与响应的能力。
4)3级驾驶自动化——有条件自动驾驶(Conditionally Automated Driving)系统在其设计运行条件下持续地执行全部动态驾驶任务。
5)4级驾驶自动化——高度自动驾驶(Highly Automated Driving)系统在其设计运行条件下持续地执行全部动态驾驶任务并自动执行最小风险策略。
6)5级驾驶自动化——完全自动驾驶(Fully Automated Driving)系统在任何可行驶条件下持续地执行全部动态驾驶任务并自动执行最小风险策略。
3.智能网联汽车驾驶自动化系统
智能网联汽车驾驶自动化系统由环境感知系统、智能决策系统以及控制和执行系统组成。汽车在行驶过程中通过传感器自行感知周围环境及道路上的各种信息,并依据感知信息完成处理、融合过程,形成对全局的理解,进一步通过各种算法决策如何应对,最后将决策信息传递给各控制系统形成执行命令,完成驾驶动作。
(1)环境感知系统
环境感知指对于整个驾驶环境的场景认知能力,是对障碍物、道路标志、交通标线、车辆、交通信息等数据的语言分类。
环境感知系统的主要功能是通过车载环境感知技术、卫星定位技术、4G/5G及V2X无线通信技术等,实现对车辆本身和外界(如道路、车辆和行人等)静、动态信息的提取和收集,并向智能决策系统输送信息。
智能网联汽车自动驾驶常用的环境感知传感器有视觉传感器、毫米波雷达、激光雷达、超声波传感器和红外传感器等。
(2)智能决策系统
决策规划是智能网联汽车的关键之一。智能决策系统的主要功能是接收环境感知层的信息并进行融合,对道路、车辆、行人、交通标志和交通信号等进行识别,决策分析和判断车辆驾驶模式和将要执行的操作,并向控制和执行层输送指令。比如从A地到B地,需要通过一系列规划的算法实现,包括地图的建立、避障等,最后选择一条最优化的路线,这就是决策规划。
(3)控制和执行系统
控制执行系统的主要功能是根据功能决策的指令对车辆进行操作和协调,为联网车辆提供道路交通信息、安全信息、娱乐信息、救援信息、商务信息、在线消费等,以保证安全可靠、舒适驾驶。
自动驾驶汽车在传统汽车的基础上扩展了视觉感知功能、实时相对地图功能、高速规划与控制功能,增加了全球定位系统天线、工业级计算机、GPS接收机、雷达等核心软硬件。环境感知系统通过各种传感器采集周围环境基本信息,是自动驾驶的基础,主要包括毫米波雷达、激光雷达、超声波传感器、视觉传感器等。
环境感知是通过安装在智能网联汽车上的智能传感器或V2X技术,对道路、车辆、行人、交通标志、交通信号灯等进行检测和识别,主要应用于先进驾驶辅助系统(ADAS)和自动驾驶系统(ADS),保障智能网联汽车安全、准确到达目的地。
1.超声波传感器
超声波传感器是利用超声波的特性,将超声波信号转换成其他能量信号的传感器,具有频率高、波长短、绕射现象小等特点,对液体、固体的穿透性较强,用于自动驾驶汽车可帮助车辆探测外部环境并指导车辆对此做出适当的反应。超声波传感器能够发出高于人类听觉水平的高频声音。
超声波传感器初期主要用于车辆制动辅助系统和倒车雷达,用来检测障碍物以避免碰撞和擦蹭,目前已被研究应用在自动泊车和自动制动系统中。
自动泊车辅助系统利用超声波传感器提供的停车区信息和车辆位置,控制汽车节气门、制动器和转向,从而完成车库停车和侧方位自动泊车。泊车传感器通过声呐技术来计算与目标物体的距离或方向,汽车制造商通过在后保险杠上安置2~4颗传感器来部署自动泊车系统,这样可以确保探测距离在2~2.5m,并将测量到的距离用蜂鸣声传达给驾驶人。
超声波自动制动系统是通过松开加速踏板同时采取制动来避免前侧碰撞,放置在汽车车头的超声波传感器会发射超声波,在接收到前面物体的反射波后确定汽车与物体之间的距离,进而通过伺服电机自动控制汽车制动系统。
2.毫米波雷达
毫米波雷达利用无线电波对物体进行探测和定位。
现在的车载毫米波雷达系统主要有用于中短测距的24GHz雷达和长测距的77GHz雷达2种,其中77GHz的优势主要在于距离和速度测定的准确性,此外其角分辨率也更加精准。毫米波雷达可有效提取景深及速度信息,识别障碍物,有一定的穿透雾、烟和灰尘的能力,但在环境障碍物复杂的情况下,由于毫米波依靠电磁波定位,因此电磁波出现漫反射时,漏检率和误差率比较高;固态雷达芯片系统很常见,体积小,价格低廉。它们具有良好的频率范围,但与其他传感器相比,分辨率更差。固态雷达芯片系统在明暗条件下同样能够很好地探测和定位。77GHz系统受雾、雨和雪的干扰影响较小。
车载毫米波雷达无法进行颜色、对比度或光学字符识别,但在测定当前交通场景中目标的相对速度方面非常准确且时效性高。
3.激光雷达
激光雷达依靠的是激光而不是无线电波。除了激光发射器,这套系统还需要一个敏感的接收器。激光雷达系统能探测静态和动态物体,并提供被探测物的高分辨率的几何图像、距离图像和速度图像。
激光雷达目前是大而昂贵的系统,必须安装在车辆外面。其可分为单线和多线激光雷达,多线激光雷达可以获得极高的速度、距离和角度分辨率,形成精确的3D地图,是智能驾驶汽车发展的技术路线,但是成本较高,也容易受到恶劣天气和烟雾环境的影响。按照有无机械旋转部件,激光雷达也可分为机械环绕式激光雷达、固态激光雷达和混合固态激光雷达三种。机械环绕式激光雷达带有控制激光发射角度的旋转部件,而固态激光雷达则无需机械旋转部件,主要依靠电子部件来控制激光发射角度。由于内部结构有所差别,三种激光雷达的大小也不尽相同,机械环绕式激光雷达体积更大,总体来说价格更为昂贵,但测量精度相对较高。而固态激光雷达尺寸较小,成本低,但测量精度相对会低一些。混合固态激光雷达介于两者之间。目前,固态激光雷达已初步实现了量产,是未来发展趋势。
与其他雷达相比,激光雷达在所有光线条件下都能很好地工作,但激光雷达无法检测颜色或对比度,也无法提供光学字符识别功能。在汽车行业,激光雷达是个相对较新的系统,正越来越受欢迎。谷歌的自动驾驶汽车解决方案使用激光雷达作为主要传感器,但也使用其他传感器。
激光雷达在工业和军事领域已经应用。但是由于激光雷达拥有360°全景视角的复杂机械透镜系统,单个成本高达数万美元。因此,激光雷达暂时还不能像毫米波雷达一样在汽车产业大规模部署。
4.视觉传感器
视觉传感器是指利用光学元件和成像装置获取外部环境图像信息的仪器,通常用图像分辨率来描述视觉传感器的性能。视觉传感器的精度不仅与分辨率有关,而且同被测物体的检测距离相关。被测物体距离越远,其绝对的位置精度越差。
视觉传感器成本低、体积小且分辨率高。与其他传感器不同,视觉传感器具有颜色、对比度和光学字符识别功能,但受光线条件影响,其探测范围和性能会随着光线水平变暗而降低。
通过对采集图像进行计算机算法分析,车载摄像头能够识别行人、自行车、机动车、车道线、路牌、信号灯等环境信息,进而支撑实现车道保持辅助、车道偏离预警、前向碰撞预警、行人碰撞预警、全景泊车、驾驶人疲劳预警等功能。
1.路侧感知功能
路侧感知就是利用摄像机、毫米波雷达、激光雷达等传感器,并结合路侧边缘计算,实现对该路段的交通参与者、路况等的瞬时智能感知。
路侧感知能拓展自动驾驶车辆和驾驶人的感知范围,并通过V2X车路协同技术实现人-车-路-云的一体化运行监测,第一时间发现道路通行异常,实现车路协同、车云协同、区域路云协同等智能应用,满足自动驾驶车辆和社会车辆智能出行需求,同时它能使监管机构变得更加高效灵活,从而建立一个响应速度更快、更加灵活的监管环境。
针对自动驾驶车辆,路侧感知将增强其感知能力,有效弥补单车智能的感知盲点,让自动驾驶由过去的单车智能转变为有组织的高效协同合作。在自动驾驶感知、决策层面技术痛点无法短时间突破的背景下,行业正由单车智能走向协同智能,也将推动自动驾驶产业加速成熟,最终形成低成本的自动驾驶。
针对普通社会车辆,路侧感知将给其赋能先进辅助驾驶功能。通过路侧雷达、摄像头等传感器采集汽车周边、前方较远距离的环境数据,进行静态和动态物体的识别与跟踪,控制系统结合地图数据做出行为决策,使驾驶人觉察可能发生的危险,从而有效提升驾驶安全性与舒适性。社会车辆通过安装车路协同App或者观察道路侧的交通信息指示牌,即可体验部分功能,获取视距范围外的实时路况信息,提前根据需要减速或调整路线,以达到降低交通隐患、舒适出行的目的。
路侧感知数据接入交警数据平台,可将原始数据和本地处理的结果上传云端,通过对海量交通运行数据进行整合处理,形成分析预测模型,运用于交通调度引导、线路规划和车辆管控等方面,推动道路基础设施要素资源全面数字化、“人车客货”互联互通,用数据管理和决策为车辆的运行与监管提供全方位的支持,为提升高速公路的交通效率提供了有效的解决方案。
2.路侧感知常见应用场景
通过对不同类型的路段进行路侧感知会得到相应的应用场景,这些应用场景不但能够保证车辆安全通行的需求,同时还能够满足智能网联车辆的测试需求。立足于不同路段的交通流特点及其延伸出来的痛点分析结果,我们将路侧感知应用场景划分为智慧高速道路和智慧城市交叉路口两个主要的应用板块。
智慧高速解决方案中,路侧感知主要场景见表1-1。
智慧城市解决方案中,路侧感知主要场景见表1-2。
网联化是指通过V2X技术,让所有道路参与者实现路况信息实时共享,实现真正的“人-车-路-云”协同智能。路侧感知是V2X的重要组成部分,通过架设在道路侧的传感器感知实时道路信息和交通信息,并与车辆共享,使车拥有超视距感知能力,为实现更高级别的智能驾驶提供新方向。同时,V2X技术是物联网技术面向应用的概念延伸。通过V2X技术,将路侧传感器与车载传感器等进行互联,也有利于实现单机智能向互联智能,甚至主动智能方向转变。因此,智能网联汽车路侧智能感知离不开交通标志和信号灯的识别技术。
表1-1 智慧高速道路路侧感知主要场景
表1-2 智慧城市道路路侧感知主要场景
3.交通标志识别系统
在与机动车有关的死亡事故中,一部分是因为发生了与速度有关的碰撞。交通标志识别(TSR)是一种先进驾驶辅助系统,也是一个车辆安全系统。该系统使用先进的前置摄像头,一般安装在风窗玻璃上,靠近后视镜。摄像头处理道路标志的检测,软件对其进行处理,对某些交通标志的含义进行分类。在对交通标志进行分类后,通过仪表板、多媒体或平视显示器将交通标志信息传递给驾驶人,帮助驾驶人了解速度限制和其他道路标志,帮助驾驶人提高安全意识,能够做出更安全的驾驶决定。
交通标志的识别包括两个过程:检测和识别。
检测的目的是去除无效信息对识别的干扰,只对感兴趣的区域处理,减少计算机处理图像的计算量。一般是通过交通标志的色彩或是形状特征以及两者综合的方法检测出所有可能是交通标志的区域,然后将兴趣区域从整个图像中分割,再进行规则化以方便在接下来的识别阶段识别交通标志。检测方法通常分为基于颜色和基于形状检测两类。颜色是交通标志最重要的特征之一,同类交通标志通常具有颜色相同的特征,比如我国交通标志大部分为红、黄、蓝、黑、白几种颜色,并且视角改变时颜色也不会发生改变。而且,根据色彩空间的特征,颜色具有较好的可分离性。通过特征颜色分割,可以达到去除大片非感兴趣区域的目的,这有利于提高系统的实时性。
识别就是进一步判定分割出的交通标志内核区域的含义。在完成检测到交通标志并把非交通标志的区域设为背景后,还要经过将分割出的图像进行归一化以及预处理操作,如消除噪声、拍摄抖动、光照等的影响,而后对其内核内容进行识别,通常使用支持向量机进行分类。该方法是一种基于对大量样本学习的优化分类模型,原理是根据统计学的结构风险最小化原理,其结构简单泛化能力强,在颜色分割的基础上,以目标区域的边界距离为特征训练线性支持向量分类检测交通标志,然后以交通标志的全部像素为特征训练非线性支持向量分类机来对标志进行分类理解。该算法不足之处是以标志的全部像素为特征,特征空间较大,网络复杂;分类时需要高维映射,计算量较大。
交通标志检测并不是在所有情况下都能发挥作用,当道路标志损坏、缺失或相隔距离较远时,就更明显了。由于识别道路标志的固有问题,一些车辆使用TSR和全球定位系统(GPS)数据的组合来驱动其当前的速度限制显示。将不同来源的数据结合起来,可以获得更好的知情驾驶体验。
目前的技术还不能确定所有的交通标志,也不能在所有条件下运行。TSR系统的性能受以下几种情况限制:前照灯脏污或调整不当;风窗玻璃脏污、起雾或堵塞;翘曲、扭曲或弯曲的标志;轮胎或车轮状况异常;由于重物或修改悬架而导致的车辆倾斜。虽然TSR和类似的车辆传感技术在迈向完全自主驾驶方面很有帮助,但距离仍然很大,驾驶人不能完全依赖任何ADAS来替他们驾驶。
4.交通信号灯识别系统
交通信号灯识别系统同样包括检测和识别两个基本环节。首先是定位交通信号灯,通过摄像头从复杂的城市道路交通环境中获取图像,根据交通信号灯的颜色、几何特征等信息,准确定位其位置,获取候选区域。然后是识别交通信号灯,通过检测算法获取交通信号灯的候选区域,通过对其分析及特征提取运用分类算法,实现对其分类识别。
(1)系统组成
交通信号灯有各种识别系统,主要由图像采集模块、图像预处理模块、检测模块、识别模块、跟踪模块和通信模块等组成。
1)图像采集模块。摄像头的成像质量好坏将影响后续识别和跟踪的效果,一般采用彩色摄像头,其中镜头焦距、曝光时间、增益、白水平等参数的选择都对摄像头成像效果和后续处理有重要影响。
2)图像预处理模块。图像预处理模块包括彩色空间选择和转换,彩色空间各分量的统计分析基于彩色分析的彩色图像分割、噪声去除以及基于区域生长聚类的区域标记,通过图像预处理后得到交通信号灯的候选区域。
3)检测模块。检测模块包括离线训练和在线监测两部分。离线训练通过交通信号灯的样本和背景样本的统计学习得到分类器,利用得到的分类器完成交通信号灯的检测。
4)识别模块。通过检测模块在图像中的检测定位,结合图像预处理得出信号灯色彩结果、交通信号灯发光单元面积大小和位置等先验知识,从而实现交通信号灯的识别功能。
5)跟踪模块。通过识别模块得到的结果可以得到跟踪目标,利用基于彩色的跟踪算法可以对目标进行跟踪,有效提高目标识别的实时性和稳定性。运动目标跟踪办法可分为四类,分别是基于区域的跟踪办法、基于特征的跟踪办法、基于主动轮廓线的跟踪办法和基于模型的跟踪办法。
6)通信模块。该模块是联系环境感知模块、规划决策模块与车辆底层控制模块的桥梁,通过制订的通信协议完成各系统的通信,实现信息共享。
(2)识别方法
交通信号灯的识别方法主要有基于颜色特征的识别算法和基于形状特征的识别算法。
1)基于颜色特征的识别算法。基于颜色特征的交通信号灯识别算法主要是选取某个色彩空间对交通信号灯的红、黄、绿3种颜色进行描述。在这些算法中,依据对色彩空间的不同,主要分为基于RGB颜色空间的识别算法、基于HIS颜色空间的识别算法和基于HSV颜色空间的识别算法。
2)基于形状特征的识别算法。基于形状特征的识别算法主要是利用交通信号灯和它的相关支撑物之间的几何信息。这一识别算法的主要优势在于交通信号灯的形状信息一般不会受到光学变化和天气变化的影响。此外,也可以将交通信号灯的颜色特征和形状特征结合起来,以减少单独利用某一特征所带来的影响。
针对自动驾驶功能,联合国世界车辆法规协调论坛(UN/WP.29)自动驾驶与网联车辆工作组(GRVA)提出了结合审核与审计、仿真测试、场地测试与真实道路测试等多种不同方法来支撑自动驾驶功能的评价方法——“多支柱法”。
场地测试与真实道路测试均属于传统测试技术,要求使用真实车辆在真实世界进行测试,在场景覆盖面及测试效率上存在较大局限。在此背景下,仿真测试技术可从以下两个方面补充实车测试的不足之处:
1)可以模拟真实世界中出现概率极低的危险场景,从而可以使自动驾驶系统在更加丰富和复杂的场景中进行高频度的有效测试验证,在保障安全高效的前提下实现更充分的测试验证效果,提高自动驾驶功能开发和测评的可靠性。
2)通过对实车测试数据进行复现和泛化,不仅能够更加有效和深入地分析实车测试过程中的问题,进行针对性优化,而且可以更加精准地约束测试条件,提升测试效率,缩短功能开发和测试周期。
自动驾驶仿真技术是计算机仿真技术在汽车领域的应用,它比传统ADAS仿真系统研发更为复杂,对系统在解耦和架构上的要求非常高。仿真技术的基本原理就是在仿真场景内,将真实控制器变成算法,结合传感器仿真等技术,完成对算法的测试和验证。类似其他通用仿真平台,它必须尽可能真实,而对仿真系统进行分析和研究的一个基础性和关键性的问题就是将系统模型化。通过数学建模的方式将真实世界进行数字化还原和泛化,建立正确、可靠、有效的仿真模型是保证仿真结果具有高可信度的关键和前提。
智能网联汽车自动驾驶仿真体系作为标准的系统工程,由仿真交通场景、仿真软件和测试评价三个主要模块组成。
1.仿真交通场景
仿真交通场景模块主要用于车辆运行的外部模拟世界,包括外部交通场景要素模拟,例如:①道路情况(高速公路、城市道路等不同的道路结构);②交通标志和信号灯等道路附属设施;③道路车辆及人等交通参与者(轿车、货车、摩托车、行人);④道路临时物体(路障、锥桶、遗撒物等);⑤气候(晴、阴、雨、雪、白天、黑夜等)。此外,还需要模拟不同交通场景要素之间的组合和动态关系,比如在崎岖泥泞的山路上,一辆轿车在被测车辆前方紧急制动停车等情况。
2.仿真软件
仿真软件不需要真实的环境和硬件,通过软件模拟就能够发现和复现问题,从而可以极大地节省成本和时间。现有的仿真软件主要包括CarSim、PreScan、CarMaker、VTD、51Sim-One、Vissim、SUMO、rFpro、Cognata、VIRES VTD、Pilot-D GaiA、Metamoto、腾讯TAD Sim仿真平台、百度Apollo、AirSim、NVIDIA Drive ConstellationWaymo Carcraft、PanoSim、MATLAB等。
3.测试评价
对安全、体验和配置三大维度的评价指标进行测试,对比历史数据和标准值予以评价。仿真测试主要包括模型在环(MIL)、软件在环(SIL)、硬件在环(HIL)、驾驶人在环(DIL)和车辆在环(VIL)。
(1)模型在环(MIL)
在系统开发阶段,需要建立算法模型并进行仿真测试,根据仿真测试结果,不断优化系统设计。这个阶段的仿真通常被定义为模型在环。
在自动驾驶仿真中,通常需要进行模型在环仿真的算法有视觉、雷达、高精度地图、定位、多传感器融合等感知算法,以及规划、决策乃至执行算法。
(2)软件在环(SIL)
在完成模型在环测试后,对算法模型进行代码转化,形成代码,同样需要对代码进行仿真测试,进行代码与算法模型等效性测试,保证代码与算法模型一致。该阶段测试通常被定义为软件在环。
(3)硬件在环(HIL)
硬件在环提供可以模拟真实的系统环境的动态系统模型作为“受控设备仿真”,并通过嵌入式系统的输入输出将其与仿真系统平台相连,形成闭环。硬件在环测试的目的是验证控制器。
(4)驾驶人在环(DIL)
在对车辆、发动机等系统进行仿真的基础上,以及在保证测试精度的前提下,增加了交通和环境的仿真,并将真实驾驶人引入仿真测试闭环,融合传感器仿真技术,结合3D实时动画,对系统进行验证。
(5)车辆在环(VIL)
将测试系统集成到真实车辆中,结合仿真平台模拟道路、交通场景以及传感器信号,从而构成完整测试闭环。车辆在环测试的目的是验证测试系统功能、各场景仿真测试、与整车相关电控系统的匹配及集成测试。
虚拟仿真测试是通过传感器仿真、车辆动力学仿真、交通流仿真、道路建模等技术模拟真实测试环境,搭建相对真实的驾驶场景,完成自动驾驶汽车测试工作的一种形式。
仿真系统在整个仿真体系中起到承上启下的作用,能够设置仿真场景、测试研究对象、通过仿真数据接口提供被测对象的运行表现数据,是仿真体系的核心。在实际应用工作中,仿真系统的性能也决定着整个仿真体系的上限。自动驾驶仿真系统主要包括仿真软件和通信环境。
1.仿真软件
首先,仿真系统不止是仿真软件。从狭义上来说,它是仿真软件、通信环境与被测对象的集合;从广义上来说,它又包括云仿真环境等。
其次,仿真系统是具体的工具。不同的仿真软件、不同的通信环境、不同的被测对象都有各自的特点,作为仿真工程师需要了解不同仿真模块各自的共有属性,并充分理解并利用不同对象的特异性。关键是做到兼容并包,调节需求和客观仿真资源之间的矛盾。
一个完整的自动驾驶仿真软件从逻辑上包括静态环境模块、交通流模块、传感器模块、动力学模块和数据管理模块(包括场景模块)。
(1)静态环境模块
静态环境模块指构建、维护静态场景的模块。具体需要的静态元素需要同感知组进行对接,也可以结合具体的专家知识提取分析产品设计运行域(ODD)。之后需要设计符合真实情况的场景元素并以合理的方法进行泛化。
这一模块的关键问题在于静态环境的真实度保障以及自动化构建大规模静态场景的方法两方面。
(2)交通流模块
常见的动态场景构建方式有:典型交通行为建模,如起动、跟车、换道、超车、十字路口处理等。利用人工智能(AI)技术生成驾驶模型,在虚拟世界中设置AI车辆自动行驶,AI可以学习交通流的特性,尤其在行人仿真方面有比较好的成效。这部分主要可以使用模仿学习、强化学习来完成。导入交通学中的交通流模型,并引入数学概率分布模型。这样的交通流模型包括宏观交通流模型和微观模型,相应的数学概率分布模型应该以高斯模型为主,这部分可以通过与SUMO/Vissim联合仿真完成,也可直接构建交通流模型,将真人开车的数据导入交通流中,研究稀有事件模拟(Rare-Events Simulation),主要利用驾驶模拟器实现。
(3)传感器模块
传感器模块是连接外界环境和被测车辆的媒介。针对不同的被测对象,有不同的传感器模块使用方法。在进行决策规划系统测试时,可使用对象级传感器,由此可以避免传感器模型的不准确带来的大部分后续问题。对于需要原始仿真信息(如图像、点云)的被测系统,则需要基于实际产品情况精确标定传感器参数,如对于图像传感器标定位置外部参数和畸变系数等内部参数,对于激光雷达等传感器标定线数、旋转速度等。
传感器建模是个处理难度很高的模块,目前有物理建模和统计建模两种典型的传感器建模方法。物理建模难度比较高,且需要大量的计算资源,如何弥补这两种模型的缺陷是需要深入讨论的问题。
如果必须要用到传感器建模,那么对于统计建模的方法,可以精心设计噪声参数并通过数据处理方法解决由真实程度带来的仿真结果差异。对于物理建模,则要考虑各仿真器的性能。
(4)动力学模块
动力学模块在传统车辆仿真工作中占有非常重要的地位,相关的理论和实践工作也已非常成熟。动力学仿真结果的精确度直接影响自动驾驶仿真结果的可用程度,主要采用集成动力学仿真的方式。
对于动力学仿真模块,要熟练掌握CarSim和TruckSim等动力学仿真软件和各种动力学模型,掌握联合仿真方法和动力学模型标定方法。另外,百度提供了一种基于数据的动力学建模方法,也有很高的实用价值。
(5)数据管理模块
数据管理模块指的是管理整个仿真数据管线的模块,它的内涵覆盖范围很广,包括场景解析、仿真过程记录、过程回放、数据导出等。
仿真软件种类很多,也各有特色。常见的有Prescan、VTD、Panosim、51simOne、GaiA等商业自动驾驶仿真软件;CARLA、lgsvl、Airsim等开源自动驾驶仿真软件;精度较低一些的DeepDrive、一些基于ROS构建的自动驾驶仿真平台;专精于特定功能仿真的软件,如在交通流仿真方面有Vissim、SUMO、High-env等;在动力学仿真方面有CarSim、Trucksim、Car-maker等软件;在静态场景仿真方面有一些大规模城市构建仿真软件;在构建复杂交通流场景方面也有一些软件。
2.通信环境
通信环境指的是仿真软件和被测对象之间的信息传输环境。其基础是利用计算机网络的相关知识完成信息传输工作,即开发仿真接口。
一般情况下,可以通过通信中间件处理仿真数据,并将其转化为被测对象所需的数据格式进行传输。中间件类型有很多,常用的可能有基于ROS的中间件、基于AutoSAR的中间件等。关键问题是结合具体测试需求选择合适的中间件,以及如何减少仿真消息的延迟和丢失以保证通信效率,这和仿真的可用度密切相关。
如图1-1所示,针对智能网联汽车自动驾驶功能的虚拟仿真测试,典型的测试流程包括:测试需求分析、测试资源配置、接口定义、设计测试用例、测试执行、出具测试报告以及形成评价结论等主要环节。
1.测试需求分析
仿真测试需求通常包括被测自动驾驶系统的功能及性能需求、对仿真结果的输出需求及仿真测试平台的自身需求等。被测自动驾驶系统的功能及性能需求有功能规范、性能指标、架构框图、设计运行范围、测试范围等。对仿真结果的输出需求有输出的数据格式及内容、输出数据频率、结果分析。仿真测试平台的自身需求有同步性、实时性、稳定性等。
图1-1 智能网联汽车自动驾驶功能的虚拟仿真测试流程
2.测试资源配置
测试资源配置指根据测试项目和需求,对仿真测试平台进行参数配置,具体包括:
1)车辆模型配置:主要设置空气动力学、动力传动系统、制动系统、转向系统、悬架系统、轮胎等。
2)静态场景配置:主要设置道路参数,包括道路、标线、标志、护栏、植被、路灯、天气等。
3)动态场景配置:主要是目标模型的输入,包括车辆、行人、动物及其之间的动态关系。
4)传感器模拟配置:根据摄像头、毫米波雷达、激光雷达、超声波传感器的物理特性进行建模。
5)控制器配置:主要是设置供电配置电压、接口配置和协议配置。
3.接口定义
接口定义包括数据格式接口、通信接口、执行器和控制器之间的接口以及特殊接口等。
4.设计测试用例
测试用例的设计应兼顾充分性和效率原则,且对自动驾驶测试任务的描述、搭建和执行过程,具有可重复性。测试用例主要描述功能、静态场景、动态场景、期望测试结果、通过标准等。
5.测试执行
测试执行指根据被测系统测试需求,制定试验大纲,再通过软件运行开展具体的仿真场景测试工作,从而取得测试对象针对仿真平台输入信号的响应数据的过程。测试执行具体包括初始状态设置、测试车辆运行、目标车辆添加、测试车辆决策、测试过程监控、测试过程自动化、数据存储等环节。
6.出具测试报告
通过软件进行自动化测试结果的数据处理,具体包括数据分类、统计、筛选和可视化,并根据规范生成测试报告。报告应包括测试对象、测试人员、测试时间、测试结果和测试数据等内容。
7.形成评价结论
测试结果应比对标准值和历史数据,形成评价结果的评分。其主要用来评价系统仿真测试是否达到预定要求,通常包括已按要求完成预定的系统测试任务;实际测试过程遵循了预定的测试计划;客观、完备地记录了测试过程和测试中发现的所有问题;测试的全过程自始至终在控制下进行;测试中的异常有合理解释或者正确有效的处理;全部测试用例、测试软件和测试配置项已完成,数据已记录。
阿里发布首个自动驾驶仿真路测平台,一天可测800万km。
路测是自动驾驶落地的核心环节。研究显示,自动驾驶汽车需要积累177亿km的测试数据,才能保证自动驾驶感知、决策、控制整个链路的安全性。传统纯虚拟仿真测试平台能快速跑完自动驾驶路测里程,但仍然面临极端场景训练效率低下的关键问题:极端场景数据不足,就无法还原真实路况的不确定性,系统就无法精准应对真实路况的突发情况,自动驾驶就难以实现进一步突破。
达摩院首创自动驾驶混合式仿真测试平台解决了这一难题。该平台打通了线上虚拟固定环境与线下真实路况不确定性的鸿沟。传统仿真平台难以通过算法模拟人类的随机干预,但在达摩院的平台上,不仅可以使用真实路测数据自动生成仿真场景,还可通过人为随机干预,实时模拟前后车辆加速、急转弯、紧急停车等场景,加大自动驾驶车辆的避障训练难度。
针对极端场景数据不足的问题,该平台可以任意增加极端路测场景变量。在实际路测中,复现一次极端场景的接管可能需要1个月的时间,但该平台可在30s内完成雨雪天气、夜间照明不良条件等特殊场景的构建和测试,每日可支持的场景构建数量达百万级。
行业专家指出,这一平台规模化地解决了极端场景的复现难题,使得这些关键场景的训练效率提高上百万倍,将推动自动驾驶加速迈向L5阶段。仿真测试与实际道路测试的区别在哪里,需要具备哪些技术?
自动驾驶汽车需要经历大量的道路测试才能达到商用要求。采用路测来优化自动驾驶算法耗费的时间和成本太高,且开放道路测试仍受到法规限制,极端交通条件和场景复现困难,测试安全存在隐患。目前,自动驾驶仿真测试已经被行业广泛接受,自动驾驶算法测试大约90%通过仿真平台完成,9%在测试场完成,1%通过实际路测完成。基于场景的自动驾驶虚拟仿真测试方法在测试效率、测试成本等方面具有巨大的技术优势,是未来自动驾驶汽车测试验证的重要手段。
安全是汽车智能化的基本前提,也是自动驾驶的基本要求。在保障安全的前提下,用户体验的好坏也是消费者是否接受智能网联汽车的重要方面。智能网联汽车基于车辆的智能化网联化配置,可以有效保障车内乘员及其他道路使用者的生命安全,还可以带来更加舒适的驾乘体验。同时,场景库的真实性和评价标准的有效性都能反映该系统处理复杂使用场景的能力上限。
因此,对智能网联汽车产品的仿真测试评价可以分为自动驾驶车辆相关评价以及仿真测试自身评价。对自动驾驶车辆相关评价包括驾驶安全性、驾驶舒适性、交通协调性和标准匹配性评价;对仿真测试自身评价包含真实性和有效性评价。
1.评价依据
标准化交通场景确定之后,自动驾驶算法接入仿真平台即开始测试,自动驾驶测试评价的依据源于原子结果和车辆状态。原子结果指的是自动驾驶车辆从起点出发之后所有的细微表现,如是否闯红灯、是否压实线、是否发生碰撞、是否达到终点。车辆状态主要指自动驾驶车辆从起点出发之后到终点的全过程中的加速、制动、转向状态。
2.评价内容
1)驾驶安全性:指车辆在道路上的行驶决策和行为。自动驾驶车辆也需要遵守交通规则,必须在各种驾驶情境(不论该情境是预期内还是预期外的)为用户提供导航,确保驾驶安全性。
首先是对自动驾驶模块运行可靠性的判定,类似模块是否会发生软件的致命错误、内存泄露和数据延迟等。其次是对自动驾驶基础功能的评价,类似模块是否按照道路指示标志行车、是否冲撞行人、是否发生交通事故等。
2)驾驶舒适性:指车辆在道路上行驶期间驾驶人或乘员的驾乘体验。
依据行驶过程记录下的加速、制动、转向状态,评估车辆驾乘是否平稳,转弯是否平顺;利用多自由度驾驶模拟器,通过驾驶人在环,评估驾驶人的体感判定和心理感受(体感判定包括了横摆角、顿挫感等评估体系,心理感受包括了心理安全感以及迟钝感等。)
3)交通协调性:指车辆在道路上行驶时相对其他交通参与者的交通移动表现。
在仿真平台内,对交通协调性的评价方法是比较困难的,只能从外部交通参与者或者全局视角去分析评价。通过算法不断自我强化学习,协调性可以得到提升。
4)标准匹配性:指按不同国家的法律法规,对自动驾驶行为做出评价。
在仿真平台内,通过不同的排列组合和条件筛选,可以从不同维度按不同行业标准,对自动驾驶算法做出评价。
5)真实度评价:主要是针对场景库真实合理性的评价,分为场景信息真实度、场景分布真实度两个方面,如图1-2所示。
图1-2 真实度评价的两个维度
①场景信息真实度:在场景构建过程中,需要合理准确地在虚拟环境中渲染测试场景中的静态场景要素(如交通设施、道路及障碍物等)、动态场景要素(动态指示设施、通信环境信息)、交通参与者要素(机动车/非机动车、行人等)以及气象环境要素(环境温度、光照条件、天气情况)等信息。
②场景分布真实度:在参数重组场景中,对于由特征元素组合和人工编辑合成的场景,由于人工修改参数后可能会出现真实世界不存在的场景,因此在人工编辑场景时需参考真实世界场景的参数值范围去合理化地设置参数重组场景。
6)有效性评价:目前尚无统一的有效性评价标准,可参考的评价标准见表1-3。
表1-3 可参考的评价标准
1.通用要求
通用要求主要指平台的完备性要求。
1)应具备功能完整的算法测试能力,支持对自动驾驶车辆的感知、决策、控制等算法进行测试,可支持实时仿真测试,且具备多车并发测试的能力。
2)应具备支持多种类型的测试场景的能力,包括城市道路、乡村道路、高速公路等环境。
3)应具备复杂交通场景快速构建和批量生成能力,主要包含道路和道路网络结构、道路路面和车道信息、地形、路边建筑物、可变的道路信息、信号灯、交通标识标线等。
4)应具备交通流仿真模拟能力。
5)应具备自然天气建模和渲染的能力,包括白天、夜晚、晴天、多云、阴天、雨、雪、雾、沙尘等,具备天气条件和路面附着条件的关联能力,具备自然天气条件对传感器的关联能力,可实时模拟路面积水、积雪、雨水浸润镜头等工况。
6)应具备传感器仿真建模能力,包括摄像头、毫米波雷达、超声波传感器、激光雷达、导航定位单元、惯性测量单元等。其中激光雷达和摄像头应能分别实现点云数据和图像数据原始信号注入方式的仿真;超声波传感器和毫米波雷达应能满足仿真通用雷达传感器的目标级信号,支持多传感器分布式部署,支持不同类型和数量进行仿真配置。
7)可具备驾驶人仿真建模能力,驾驶人可控制测试车辆满足基本的驾驶行为测试,主要包括但不限于车辆起动与停止、车速控制、轨迹控制、人机切换。
8)应具备车辆动力学仿真建模能力,支持外部车辆动力学模型设置和导入等。
9)应具备除车辆外的其他交通参与者的仿真建模能力,包括摩托车、两轮电动车、自行车、行人、动物等。
10)应具备对不同操作系统的兼容能力。
11)应支持传感器套件和环境条件的灵活配置。
12)应支持多种不同的高精度地图格式导入,同时应具备一次性导入道路总长度不小于100km的能力。
13)应支持运行数据的自定义组合分析,自动生成数据图表和分析报告。
14)应进行模拟仿真测试平台与实际路测标定。
15)同一场景多次重复测试时的一致性应不低于99%。
16)具备高并发测试的能力。
17)测试过程中可显示仿真动画和数据仪表,支持多种视角切换,可单步运行。
18)系统应支持对测试过程的回放功能,支持对测试结果数据的下载功能。
19)系统应支持单个场景输入测试和路网连续里程测试等多种测试模式。
20)系统应具备评价模块,能够对被测对象的测试结果进行评定,包括但不限于是否违反交通规则、是否发生碰撞等功能。
21)模拟仿真测试平台支持对被测对象不同的接入方式,同时具备相应的机制保证信息安全和数据安全。
2.技术要求
(1)场地要素设计
1)道路等级、建设长度和设计可通行车辆类型。系统应具备不同等级和不同类型的道路,包括高速公路及出入口匝道、城市快速路、主干路、次干路、支路和其他道路等,道路线形包括直线和平曲线,平曲线又包括圆曲线和缓和曲线,各种道路的可实现长度以及设计可通行车辆类型的具体要求见表1-4。
表1-4 道路等级、可实现长度和设计可通行车辆类型技术要求
以上要素依据但不限于JTG D80—2006《高速公路交通工程及沿线设施设计通用规范》、JTG D81—2017《公路交通安全设施设计规范》、CJJ 37—2012《城市道路工程设计规范(2016年版)》等标准规范,利用数值模型的方式在模拟仿真测试平台中实现。
2)车道类型和数量。系统内各种道路应具备相应的车道类型和数量,具体要求见表1-5。
表1-5 车道类型技术要求
以上要素依据但不限于JTG D80—2006、JTG D81—2017、CJJ 37—2012等标准规范,利用数值模型的方式在模拟仿真测试平台中实现。
3)交叉口。系统应具备不同类型和几何形状的道路交叉口,包括十字形、T形、Y形、X形、错位及环形交叉口。各类交叉口的功能和基本要求应符合相关规定。城市快速路系统上的交叉口应采用立体交叉型式,除快速路之外的城区道路上不宜采用立体交叉型式,具体要求见表1-6。
表1-6 交叉口技术要求
以上交叉口,需要考虑不同等级道路之间的交叉,依据但不限于GB50647—2011《城市道路交叉口规划规范》、JTG D80—2006、JTG D81—2017、CJJ 37—2012、CJJ 152—2010《城市道路交叉口设计规程》等标准规范,利用数值模型的方式在模拟仿真测试平台中实现。
4)行人交通。系统应具备人行横道等行人交通设施,并且人行横道的宽度与道路总宽度比例符合要求且可调整,具体要求见表1-7。
表1-7 行人交通技术要求
以上要素依据但不限于JTG D80—2006、JTG D81—2017、CJJ 37—2012、CJJ 152—2010等标准规范,利用数值模型的方式在模拟仿真测试平台中实现。
5)道路特征。以城市道路作为参考依据,系统内道路特征要求见表1-8,其他道路环境依照相关标准进行设计。
以上要素依据但不限于JTG D80—2006、JTG D81—2017、CJJ 37—2012、CJJ 152—2010等标准规范,利用数值模型的方式在模拟仿真测试平台中实现。
6)交通标志、标线和信号灯等道路附属设施。系统内交通标志、标线和信号灯技术要求见表1-9。
表1-8 道路特征技术要求
表1-9 交通标志、标线和信号灯技术要求
(2)车辆模型
车辆模型可配置基本的车辆动力学实验工况。另外,为了满足自动驾驶测试的需要,车辆模型应可配置并满足线控接口的需求,具体要求见表1-10。
表1-10 车辆模型技术要求
(3)传感器模型
系统应具备对传感器不同层级仿真建模的能力,可设置不同传感器在自动驾驶车辆模型上的安装位置与安装角度,可设置传感器的视场范围,可同时仿真不同类型和不同数目的传感器,具体要求见表1-11。
表1-11 传感器模型技术要求
(4)动态要素设计
1)交通参与者。系统应支持不同类型的具有复杂动力学模型的交通参与者以及相应的动态行为。对于单个测试场景能够支撑的交通参与者数量和设计速度的具体要求见表1-12。
表1-12 交通参与者动态技术要求
注:特殊车辆是指警车、消防车、救护车等,在执行紧急任务时拥有优先路权,包括不受行驶路线、行驶方向、行驶速度和信号灯的限制,其他车辆和行人应让行。
2)交通信号灯控制。系统应支持交通灯的时序控制。
①信号基本转换序列:
a)机动车信号:红→绿→黄→红。
b)非机动车信号:红→绿→黄→红。
c)行人过街信号:红→绿→绿闪→红。
②信号持续时间:能实现至少4个相位控制;绿信号、红信号、行人绿闪信号、黄闪信号的持续时间应根据测试系统需求进行设置;黄信号持续时间可调,至少持续3s。
3)交通流。系统应能仿真交通参与者(包括汽车、摩托车)在实际道路上的运动行为,包括但不限于跟车、换道、转弯、掉头等,并且系统应可指定如下交通流行为,支持现有微观交通流模型,具体要求见表1-13。
表1-13 交通流动态技术要求
对于申请进行自动驾驶功能道路测试的智能网联汽车,常进行的驾驶功能检测项目见表1-14,包括必测项目9项和选测项目5项(标注*),依据各项目特点,并遵循编制主要思路与基本原则,拟定必测场景20个,选测场景14个。
其中,对于选测项目及场景(标注*),如企业声明其车辆具有相应功能或测试路段涉及相应场景的,也应进行相关项目的检测。
表1-14 智能网联汽车自动驾驶功能检测项目及测试场景
(续)
李德毅院士的“工匠精神”
1.为什么要进行自动驾驶仿真?
2.自动驾驶仿真测试流程是什么?
3.常见的仿真测试内容有哪些?