购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

自动驾驶场景大数据高精度采集技术研究

郑建明,张建军,覃斌,张宇飞,金鉴,刘迪

中国第一汽车集团有限公司研发总院

【摘要】 按国际三支柱法测试原则和我国智能网联汽车生产企业及产品准入管理指南,基于场景库的测试可全面高效地验证自动驾驶汽车的安全性及成熟度 其已成为自动驾驶研发及测试的关键技术。但L3级以上自动驾驶汽车测试一直面临驾驶场景数据匮乏的严重挑战,如何快速采集真实道路驾驶数据已成为制约场景库建设的重中之重。因此本文基于驾驶场景大数据采集要素总体框架,设计模块化的采集平台,开发基于全国交通环境大数据的道路选取技术,融入真实用户的驾驶行为,综合搭建了满足开发及测试需求的人-车-路的驾驶场景大数据高精度采集技术 应用该技术,设计了红旗某款车型的实车采集平台,开展了中国典型地区的真实环境数据采集,有效支撑了吉林省政府 驾驶场景大数据分析技术研究 科技专项及国家工信部 基础数据及基础地图服务平台建设 课题,对自动驾驶汽车驾驶场景库的建设有很强的指导意义。

【关键词】 自动驾驶,驾驶场景,大数据,模块化采集平台,道路选择,驾驶人行为

Research on High-precision Collection Technology Based on Big Data in Automated Driving Scene

Zheng Jianming, Zhang Jianjun, Qin Bin, Zhang Yufei, Jin Jian, Liu Di

China FAW Group Corporation R&D Institute

Abstract: According to the international multi-pillar test principle and the Guidelines for the Admittance Management of Intelligent Connected Vehicle Manufacturers and Products in China,scene database-based testing has become the key to the development of automated driving,which can comprehensively and efficiently verify the safety and maturity of automated driving vehicles.However,the test of L3 level automated driving vehicle has been facing serious challenges of lack of driving scene data.How to collect the driving data of real driving quickly has become the priority among priorities.Therefore,based on the general framework of big data collection elements for driving scenes,and the designed modular collection platform,the paper focuses on developing road selection technology blended into real user driving behavior based on big data analysis of national traffic environment to comprehensively construct the high-precision big data collection technology of human-vehicle-road driving scene in order to meet the development and testing requirements.By means of this technology,a real vehicle collection platform for a certain model of FAW Hongqi is constructed.Besides the data collection of driving scenes in typical areas of China is carried out.Thus the technology supports the science and technology special project of Jilin Provincial Government "Research on Driving Scene Big Data Analysis Technology" and the project "Construction of Basic Data and Basic Map Service Platform" of the Ministry of Industry and Information Technology.In the long run,the paper plays an important role in the construction of driving scene database of automated driving vehicles in China.

Key words: automated driving, driving scene, big data, modular collection platform, road selection, driver behavior

引言

达姆斯塔特大学的研究人员发现,如果要证明自动驾驶比人类驾驶人更安全,需要至少1亿公里的实际道路测试 [1] ;美国兰德公司的研究表明,如要证明自动驾驶车辆导致的交通事故比人类驾驶人产生的水平更低,需110亿英里的实际道路测试 [2] ,因此无法通过随机的实际道路场景测试评估自动驾驶汽车的安全性及可靠性。仿真测试、场地测试与实际道路测试相结合共同推动自动驾驶研发落地已成为共识。为减少自动驾驶长周期、高成本及低效率的实际道路测试里程,提升各种在环及封闭场地测试场景的全面性及加速性,世界各汽车厂家纷纷开展驾驶场景库建设。

与传统汽车相比,当前自动驾驶汽车的智能化水平提高较为迅速。其在短期内要应对的场景数量将成几何级数急剧增加,尤其是我国纵横交织的路网结构、瞬息万变的天气环境及风格迥异的驾驶人行为等。按照国际公认的三支柱测试法 [3-6] ,为保证自动驾驶各种测试的安全性及可靠性,一般至少需10 6 ~10 8 个场景,基于场景库的测试已成为解决自动驾驶汽车研发测试挑战的必由之路。

为满足自动驾驶汽车AI算法开发及加速测试需求,国外的主机厂、OEM厂商、一级供应商、高校及科研单位等已开展了大量的驾驶场景库建设研究,公认成果较为突出的如AdaptIVe和PEGASUS项目等 [7] 。AdaptIVe项目主要开发了适用于高速公路、城市环境等典型交通场景采集及分析程序,涵盖了自动驾驶级别的复杂交通场景,提供了不同程度的测试用例;PEGASUS项目主要实现了真实驾驶环境数据的采集并将其集成到数据库,阐述了驾驶场景的推导方法,开展了对驾驶人和自动驾驶的性能评价,并给出了部分评价标准和度量方法,回答了“自动驾驶性能多好才算好”的问题。对比国外,国内的场景库建设则刚刚起步,如上海淞泓智能汽车科技有限公司发起的“昆仑计划”,目标是建设中国全息驾驶场景库,用以支撑智能网联汽车开发、测试及服务生态体系,进而打造智能网联汽车的中国标准场景库。虽然国内外对场景库的建设均有一定的开展和研究,但相关技术资料多是对项目的组成、工作领域、工作流程、项目费用及项目目标等做简要的阐述,同时发布的相关标准也很少提到采集技术,更很少提到驾驶场景大数据高精度采集技术。本文利用红旗某款车型,配置环境感知传感器,搭建模块化的采集平台;广泛利用全国区域及道路信息,建立基于多参数的区域及道路选择方法;融合真实用户的驾驶行为特征,综合建立满足开发及测试需求的驾驶场景大数据采集技术,为吉林省政府《驾驶场景大数据分析技术研究》科技专项及国家工信部《基础数据及基础地图服务平台建设》课题提供驾驶场景数据保障。

1 驾驶场景大数据要素总体框架

1.1 驾驶场景大数据需求分析

智能网联整车的开发过程可以划分为4个阶段 [8-12] :功能定义、功能开发、仿真测试及实车测试,如图1所示。各种在环测试所需的仿真场景数据及测试用例均需从真实场景数据中提取;产品功能、运行场景及边界条件的定义需要标注提取的真实场景及统计分析结果;感知算法及融合算法训练需标注后的原始视频及点云数据。

图1 驾驶场景大数据需求分析

为满足上述各阶段需求,采集的驾驶场景数据应具有真实性、代表性、可量化及通用性的特点 [13] 。真实性要求其必须真实反映具有中国特色的交通场景;代表性不仅要求其覆盖不同环境条件、不同道路类型、不同驾驶人类型,而且还要求其覆盖所有自动驾驶功能;可量化要求其包含的各类要素所体现的特征均可由具体的参数来表示;通用性要求其应能部署到不同的测试环境中,如软件在环、硬件在环、实车在环及封闭场地测试等。

1.2 驾驶场景定义及内涵

驾驶场景是指在一定时间和空间范围内汽车驾驶行为与行驶环境的综合反映,描述了外部道路、气象、交通参与者以及车辆内部的驾驶任务和状态等信息,是影响和判定自动驾驶汽车功能与性能的要素集合抽象与映射 [14-18] 。驾驶任务和状态由车辆驾驶人的预期出行和操作组成,包括当前驾驶任务和预期行驶路径。参照ISO34502标准(草案),本文将智能化驾驶场景分为五层,第一层:道路等级,主要包括道路结构、路面状况、曲率、坡度等;第二层:交通设施,主要包括标志、指示牌及龙门架等;第三层:临时交通变化,主要是指临时路面覆盖物和施工场地等;第四层:交通参与者,主要包括机动车、行人及动物等及其交互过程;第五层:天气条件,如晴、风、雨、霜、雪及光照等,如图2所示。

图2 驾驶场景要素层级

1.3 驾驶场景采集要素影响分析

驾驶场景包括行驶环境和行驶情景,具有无限丰富、极其复杂及强不确定性,如图3所示,其对智能驾驶功能的影响主要表现在以下几方面:道路及设施外形尺寸、文字与图形标识、颜色及局部损坏等属性直接影响传感器感知及目标识别的准确性;光照主要表现为逆光及低照度角在前方地面形成的高反光区,会严重影响视觉感光成像范围,背光阴影会导致图像分割的不准确,而光强会减小视觉探距,甚至夜晚根本无法成像;天气主要为雨雪下落会遮挡目标物,增加识别难度,同时雨滴会对电磁波造成散射从而降低毫米波雷达的探距,雨线会对激光雷达产生反射,降低探测精度;背景车的造型及尺寸会遮挡感知传感器,增加目标识别难度;奇装异服、形态各异的行人则可能直接造成识别失败;背景车的动态行为,如近距离的切入、切出及加减速等,更需要自动驾驶汽车有更加完善的应对策略及测试场景,因此为保证自动驾驶开发及试验验证的有效性及针对性,驾驶场景大数据采集应覆盖驾驶人行为、车辆运动行为及交通环境等信息。

图3 驾驶场景数据采集要素概况

1.4 驾驶场景大数据采集要素总体框架

综合考虑驾驶场景数据需求、场景定义及影响因素等,按相对大地的移动特性将驾驶场景采集信息分为静态和动态两类,道路及设施和气象信息构成静态信息;本车驾驶行为及交通参与者构成动态信息。本文采用树状层次结构搭建驾驶场景大数据采集元素框架,如图4所示。

图4 驾驶场景采集元素框架

2 实车采集平台搭建

2.1 采集平台模块化方案设计

真实场景采集要素及数据来源详见表1,按照数据来源及传感器用途的独立性原则,将实车驾驶场景采集平台划分为3个模块:车辆及定位模块、场景环境数据模块及AI数据模块,其中车辆及定位模块包括车载CAN传感器、定位系统、照度传感器及网联设备;场景环境数据模块包括智能摄像头、激光雷达及高清摄像头;AI数据模块包括高清摄像头及高线激光雷达。

表1 场景数据采集要素及数据来源

(续)

2.2 采集平台设计

2.2.1 平台参数设计

本车行驶行为和相邻2车道的交通参与者关系较大,因此左右采集范围应覆盖本车相邻2车道。由于中国车道宽度上限值为3.75m,因此左右采集数据至少应覆盖7.5m。

由于高速公路行驶工况对自动驾驶探测的距离要求最远,因此可根据高速公路行驶场景计算前后覆盖范围。前向最远采集距离可根据本车在高速公路上行驶时,检测到前方有一静止目标物时制动到静止,并且需和目标物保持一定安全距离的场景计算,详见式(1):

式中, L f 是前向最大采集距离(m); v 1 是本车初始速度(km/h); v 2 是本车末速度(km/h); a 是本车加速度(m/s 2 );Δ s 是本车和目标物的安全距离。

根据我国高速公路最高限速可得: v 1 =120km/h;前方目标物静止可得: v 2 =0km/h;由经验,本车加速度 a =-3m/s 2 ,本车制动停车后和目标物的安全距离Δ s =5m,根据式(1)可计算采集平台前方最远采集距离 L f =189.8m。

后向最远采集距离可根据本车在高速公路换道行驶时,检测到后方有一目标车高速靠近,本车加速并和目标车保持一定安全距离的场景计算,详见式(2):

式中, L r 是后向最大采集距离(m); v 3 是目标车速度(km/h)。

由于我国高速公路最高和最低限速可得: v 2 = v 3 =120km/h, v 1 =60km/h;由经验,本车加速度 a =2m/s 2 ;根据国标《智能运输系统自适应巡航控制系统性能要求与检测方法》可得本车和目标车的安全距离Δ s =0.2778 v 2 τ ,跟车时距 τ =2.2s,因此Δ s =73.4m,根据式(2)可计算采集平台后方最远采集距离 L r =142.8m。

2.2.2 传感器选型及布置方案

首先依据采集平台模块化方案,确定各模块的传感器种类;然后参照平台参数设计范围并结合传感器性能参数,分别对各模块的传感器进行选型及布置。

为了采集本车状态及驾驶人操作等,本车CAN须能输出车速、横纵向加速度、踏板行程、制动信号、档位、发动机转速及负荷、轮速、转向盘转角、转向灯信号、远近光灯信号以及双闪灯信号等;为获得高精度、高可靠的本车定位,需应用组合卫星定位和惯性测量单元,卫星定位系统应能支持GPS、GLONASS及北斗中的2种定位系统,接收通道不少于2路,并支持差分定位。

由于需要检测前方交通标志、标识及标线等,环境感知模块中至少需1个前置智能摄像头,其布置在前风窗玻璃上方中央位置,左右偏离不得超过0.15m,位于刮水器覆盖范围内,距地面高度1.2m以上;根据交通参与者信息采集要求,需采集360°内目标物的种类、位置、方向及速度等数据,因此本车周围需布置多个能直接输出上述信息的感知设备,并且这些数据可直接融合输出。为提升场景感知及数据处理的查全率及查准率,需本车360°全覆盖视频数据,因此需配置1套环视高清摄像头,其布置及采集范围如图5所示,其中车顶的前部和后部中央位置各布置1个摄像头,采集车辆正前和正后的视频数据;本车左右两侧各布置2个摄像头,分别位于前车轮和后车轮的正上方,前侧和后侧的摄像头分别朝向后侧和前侧,正前、正后及侧向摄像头的水平视角 θ 1 θ 2 θ 3 分别应满足式(3)、式(4)及式(5):

图5 摄像头安装角度及视场效果

式中, W 是本车宽度(m); L 1 是正前摄像头和车头的纵向距离(m); L 2 是正后摄像头和车尾的纵向距离(m); L 3 是两侧前后摄像头的纵向距离; L 4 是左右采集覆盖周围(m)。

由采集用车的结构参数、摄像头的安装位置及左右采集范围,可得 W =1.8m, L 1 =2.2m, L 2 =1.3m, L 3 =2.9m, L 4 =7.5m。将以上参数代入式(3)~式(5),可得正前、正后及侧向摄像头的水平视角分别应满足 θ 1 ≥44.5°, θ 2 ≥69.4°, θ 3 ≥79.1°。

为采集AI算法训练所需的交通参与者、交通标志、路面标识、驾驶人状态等原始数据,如视频、图片及点云等,AI数据模块中的摄像头应和产品开发采用的型号及安装位置一致;顶置1个激光雷达,至少64线;正前、左后及右后分别各置1个,至少16线;顶置激光雷达安装于平行于车辆前进方向的平面内,视角范围内不得出现车身任何部分。

2.3 采集平台搭建结果

根据采集平台参数设计及传感器方案设计,综合考虑常用传感器的性能参数,确定了各模块传感器的型号及安装位置;基于CATIA软件搭建了采集三维效果图,详见图6,验证了各传感器及整体采集覆盖范围,确保本车周围无采集盲区。

图6 采集平台三维采集效果图

基于某款红旗车型,设计各传感器安装支架,搭建驾驶场景实车采集平台。该平台采用了国内某款卫星-惯导组合的定位系统及千寻定位服务,实现了车道厘米定位精度;利用某品牌4代智能摄像头1个、4线激光雷达6个及其数据融合单元覆盖了本车周围200m内的场景数据,并且本车正前方的目标物种类及位置等数据实现了智能摄像头和激光雷达的冗余采集;选用的左右两侧高清摄像头水平视角为100°,使本车左右两侧所有车道内的视频数据无盲区;顶置128线激光雷达,正前、左后及右后配置16线激光雷达,且在时间及空间上实现了同步。

目前,使用该平台已完成了10万km驾驶场景数据采集,数据经处理及分析已提取了大量功能场景、逻辑场景及测试用例,完全可用于各种在环测试、AI算法开发及实车测试。

3 驾驶场景采集区域设计

3.1 场景区域选取技术路线

采集道路元素特征的覆盖性直接决定着提取场景的复杂度及危险度,直接影响自动驾驶汽车的智能度水平,道路结构及交通流应尽量覆盖我国典型地区特征。但我国幅员辽阔,广泛采集将导致大量的费用投入,且周期较长。由于我国各地交通环境具有一定的相似性,因此非常有必要对全国地域及交通环境进行分类,以此提升采集效率及质量。本文基于国家公开的交通环境信息资源,首先构建汽车行驶区域结构图谱,包括道路结构、天气特征及交通特征等,并对场景要素涉及的评价指标进行分解量化,然后对所有要素进行归一化、循环递推等处理排序,最后根据统计结果建立综合评估模型,并依据道路场景特征最大差异化原则选取最佳采集区域集合,以此保证最大采集道路覆盖性。

3.2 场景特征要素和评价指标

通过对我国各省份区域驾驶环境元素特征进行收集并建立量化数字型评价指标,共计23个,详见表2。

表2 场景信息特征评价指标

3.3 图像信息数字化处理

如图7所示,通过资源环境科学与数据中心网站,获取地理信息及环境信息。基准图A是含有分省信息的图像,评价图B是含有评价指标等级的图像。首先,通过颜色拾取软件拾取 A x B y ,其中 A x 是不同省级行政区对应的RGB数值, x 是省级行政区; B y 是不同指标等级对应的RGB数值; y 是评价指标等级,提取结果如表A、表B所示。其次,利用MATLAB软件编写的仿射变换程序将基准图A与评价图B的边境轮廓进行匹配,使图B与图A的图像坐标统一;再次,将图B中RGB数值等于 B y 且位置对应图A中的RGB数值等于 A x 的坐标点累计数量记作 b xy ;最后,将图B中评价指标等级作为权重 k y ,根据式(6)计算各个省级行政区的评价指标 q x ,详见表C。

图7 图像型信息数字化方法

式中, n 是评价图指标的总级数; N x 是各省级行政区的像素点总数。

3.4 采集区域选择及方案

依据我国各省份场景信息特征量化的评价指标,按照选择最少采集区域覆盖最多场景特征要素的原则,采用下述方法确定采集区域。

首先,将所有要素的评价指标正向化后再归一化,形成矩阵 Q ,详见式(7)。为突出特征明显的评价指标,设置阈值 l ,默认0.8,对归一化后的评价指标进行判断,若 s ij 小于 l 则将其乘以0.1的系数,形成新的矩阵 Q′ ,其形式与矩阵 Q 一样。

式中, r 是我国省级行政区个数; s 是场景信息特征评价指标个数; s ij 是第 i 个省级行政区第 j 个评价指标的归一化值。

然后,使用贪心算法寻找当前采集区域的最优解,其循环选择原则如下:将矩阵 Q′ 作为运算矩阵对其各行求和后找出最大值对应的行,该行对应的省级行政区为所选择采集区域;在该行中找出大于等于阈值的所有列,该列对应的评价指标即为选择该地区的原因;每次选出采集地区及评价指标后,将该行所有列和其他行该地区选择原因对应的所有列的数值设为0;矩阵 Q′ 中所有的数值为0时,循环结束。

最后,结合经验确定含有季候性因素的区域的采集时间,制定驾驶场景采集区域方案,详见表3。

表3 驾驶场景采集区域方案

4 场景采集驾驶人选取

4.1 总体选取方案

目前驾驶场景库建设均由人类驾驶人进行实地驾驶采集,但由于人类驾驶人的性格、驾龄及认知等的不同,对驾驶场景库建设的全面性、覆盖度有较大影响 [19] ,虽然可以通过后期模拟来进行相关场景的补充,但是其合理性与代表性仍有不足。为了使驾驶场景的辐射性及广泛性更好,应选取不同风格的驾驶人,覆盖谨慎、一般及激进3类,其中谨慎类特征为年龄较大,驾龄长,自我评价多为一般或偏保守,安全意识相对较好,表现为驾驶车速适中,行车时选择较大车距,具有一定的稳定特征;一般类特征为年龄中等,驾龄较短,自我评价多为一般,表现、行车指标及反应能力总体处于第一与第三类之间;激进类特征:年纪较轻,驾龄短,自我评价多为一般或偏冒险,安全意识相对淡薄,表现为驾驶车速较快,行车时选择较小车距,反应较快。本文采用主客观相结合的方法选取确定驾驶人种类及数量,既考虑了专家的专业知识又能结合客观指标内容,方案流程主要包括:驾驶人预选、典型工况及权重设计、主观问卷数据分析、客观测试数据分析,驾驶行为最终分类。

4.2 选取方案设计

设定超车、超速、变道、跟车及转弯5类与驾驶行为相关分析工况,应用主观层次分析赋权法 [20,21] 计算上述5种工况的权重;6位专家使用1-9标度进行打分,经一致性检验,得到各工况权重的判断矩阵,见表4。

表4 各工况权重判断矩阵

针对上述每种工况设计能够反映驾驶行为差异的4~5个场景,典型场景详见表5。

表5 问卷部分典型场景

按照发生频率,每个场景设置5个选项:从未出现、很少出现、有时出现、经常出现和总是出现,分别对应1~5分。根据调查结果及各工况权重,计算每名驾驶人的主观问卷得分 P sub

使用k-means聚类方法将问卷得分聚为3类,根据得分由高到低分别对应激进、一般及谨慎3类,按照1:1:1的比例至少选择30名进行客观测试及分析;将场景采集车辆作为测试车辆,测试道路包括城市快速路及城市主干道,行驶工况涵盖主观调查问卷中的工况,且每种工况每人至少测试3次;采集参数包括超车车速差、本车纵向及横向加速度、变道时间倒数、跟车时距倒数等,参数越大表示驾驶行为越激进。完成客观测试后,对各工况参数归一化处理后同样使用k-means聚类方法将驾驶人分为3类,按照式(8)计算每名驾驶人客观测试每种工况得分 P ′,最后根据各工况的权重计算每名驾驶人的客观测试得分 Po bj

式中, i 是驾驶人类型,取值为1、2及3,分别代表谨慎、一般及激进; j 是某类驾驶行为下的驾驶人序号; n 是某类驾驶行为下驾驶人总个数; d ij 是第 i 类中序号为 j 的驾驶人数据特征点; C i 是第 i 类中得分最低的驾驶人对应数据特征点; ρ 是数据特征点之间的欧式距离。

将每名驾驶人的主观问卷得分 P sub 和客观测试得分 P obj 代入式(9),计算所选驾驶人的综合得分 P

式中, R d 是驾驶行为主观评价和客观测试结果的斯皮尔曼等级相关系数 [22] ,计算公式详见式(10):

式中, m 是客观测试的驾驶人数量; j 是驾驶人序号; d j 是序人为 j 的驾驶人的主观问卷和客观测试的等级差。

最后使用k-means方法将综合得分聚为3类,同样每类平均分由低到高分别对应谨慎、一般及激进3类驾驶人,在谨慎类中应选择得分最低的,一般类中应选择得分接近中位数的,激进类中应选择得分最高的。

4.3 选取结果

按照上述方法,应用问卷星调研了181名驾驶人,计算驾驶行为主观得分;基于该结果,共选取了30名驾驶人客观测试,计算驾驶行为客观得分;结合主客观结果,确定被选取驾驶人驾驶行为综合得分及分类,详见图8;最终选取15名驾驶人,每名驾驶人的场景采集数据与客观测试数据所反映的驾驶风格一致。

图8 驾驶人综合得分及分类

5 结论

为满足自动驾驶开发及测试对驾驶场景库的需求,本文通过深入分析驾驶场景大数据采集要素,设计并搭建了模块化的人-车-路驾驶场景采集平台;开发了采集区域场景特征要素分析及评价技术,选取了能代表中国典型驾驶场景特征的省份;采用驾驶行为主客观一致性分析方法确定了驾驶人,使不同驾驶习惯融入场景数据。目前基于上述技术,已完成了广东、海南、重庆及沿途共10万km驾驶场景数据的采集,包括了城市道路、快速路及高速路的行车场景。通过对上述驾驶场景数据的处理分析及场景提取,构建了可满足L3级以上自动驾驶汽车各种在环测试、AI算法开发及场地测试的中国驾驶场景库,同时支撑了国家工信部《基础数据及基础地图服务平台建设》课题对场景数据的需求。

参考文献

[1]PHILIP K, MICHAEL W.Challenges in Autonomous Vehicle Testing and Validation[J].SAE international journal of transportation safety, 2014, 4(1):15-24.

[2]NIDHI K, SUSAN M, PADDOCK.Driving to safety:How many miles of driving would it take to demonstrate autonomous vehicle reliability?[J].Transportation Research Part A Policy & Practice,2016,94:182-193.

[3]KOOPMAN P, WAGNER M.Challenges in autonomous vehicle testing and validation[J].SAE International Journal of Transportation Safety, 2016, 4(1):15-24.

[4]李霖,朱西产.智能汽车安全技术评价方法研究[C]//2015中国汽车工程学会年会论文集,2015:488-490.

[5]熊光明,高利,吴绍斌,等.无人驾驶车辆智能行为及其测试与评价[M].北京:北京理工大学出版社,2015:114-174.

[6]BAGSCHIK G, RESCHKA A, STOLTE T, et al.Identification of Potential Hazardous Events for an Unmanned Protective Vehicle[C]//2016 IEEE Intelligent Vehicles Symposium, 2016:691-697.

[7]冯屹,王兆.自动驾驶测试场景技术发展与应用[M].北京:机械工业出版社,2020:168-172.

[8]STOLTE T, RESCHKA A, BAGSCHIK G, et al.Towards Automated Driving:Unmanned Protective Vehicle for Highway Hard Shoulder Road Works[C]//2015 IEEE 18th International Conference on Intelligent Transportation Systems, 2015:672-677.

[9]LI L, Y L, et al.Artificial intelligence test:a case study of intelligent vehicles[J].Artificial Intelligence Review, 2018, 50(3):441-465.

[10]SHAO Y L, ZULKEFLI et al.Evaluating connected and autonomous vehicles using a hardware-in-the-loop testbed and a living lab[J].Transportation research, 2019, 102(5):121-135.

[11]严刚,肖堃,褚文博.智能网联汽车计算平台虚拟化技术研究[J].汽车工程,2020,42(1):33-37.

[12]GEYER S, BALTZER M, FRANZ, et al.Concept and development of a unified ontology for generating test and use-case catalogues for assisted and automated vehicle guidance[J].Intelligent Transport Systems, 2014, 8(3):183-189.

[13]中国汽车技术研究中心有限公司数据资源中心.智能网联汽车技术[M].北京:社会科学文献出版社,2019:90-169.

[14]LI L, HUANG WL, LIU Y, et al.Intelligence Testing for Autonomous Vehicles:A New Approach[J].IEEE Transactions on Intelligent Vehicles, 2017, 1(2):158-166.

[15]RSENER C, FAHRENKROG F, UHLIG A, et al.A -Based Assessment Approach for Automated Driving by Using Time Series Classification of Human-Driving Behaviour[C]//2016 IEEE 19th International Conference on Intelligent Transportation Systems, 2016:1360-1365.

[16]GAO F, DUAN J L, HE Y D, et al.A Test Scenario Automatic Generation Strategy for Intelligent Driving Systems[J].Mathematical Problems in Engineering, 2019, 99(1):1-10.

[17]BACH J,OTTEN S,SAX E.Model based scenario specification for development and test of automated driving functions[C]//2016 IEEE Intelligent Vehicles Symposium, 2016:1149-1155.

[18]ULBRICH S, M T, RESCHKA A, et al.Defining and Substantiating the Terms Scene,Situation,and Scenario for Automated Driving[C]//2015 IEEE 18th International Conference on Intelligent Transportation Systems, 2015:982-988.

[19]HEIKOOP D D, HAGENZIEKER M, MECACCI G, et al.Human behaviour with automated driving systems:a quantitative framework for meaningful human control[J].Theoretical Issues in Ergonomics Science, 2019, 20(6):1-20.

[20]郑建明.乘用车综合商品性主观评价体系研究[D].吉林:吉林大学,2015:69-83.

[21]王磊,陈开慧,詹春,等.汽车主观评价试验项目权重计算方法研究[C]//2017中国汽车工程学会年会论文集,2017:1519-1521.

[22]李胜利,纪文渤,王磊.区域经济发展与交通需求关系研究[J].交通科技与经济,2021,23(1):74-80. /a63ihZhTSpjHGKN+9yKkj6zxwZNwWvlFm9aIJrUMUx+1Rpf7rg3ecP9FRQDr8YD

点击中间区域
呼出菜单
上一章
目录
下一章
×