购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

任务三
了解自动驾驶的数据集和开源工具

学习目标

●了解开源数据集的历史沿革

●了解自动驾驶数据集的制作方法

●了解开源数据集的种类

●能描述自动驾驶数据集的作用

●明确各种数据集的特点和获取方法,培养专业技能

●了解自动驾驶开源工具,提升职业素养和专业能力

知识索引
情境导入

某企业打算设计一套自动驾驶系统,项目进入测试阶段需要导入数据集进行测试,你作为测试工程师,需自行选择数据集进行测试,并对系统功能完整性和稳定性进行评估。

获取信息
引导问题1

请查阅相关资料,简述数据集的定义及价值。

__________________________________________

__________________________________________

__________________________________________

数据集的定义与重要性

(一)数据集的定义

数据集(data set)又称资料集、数据集合或资料集合,是一种由数据所组成的集合,通常以表格形式出现。比如人脸的数据集(图1-3-1),就是将大量的人脸图片进行收集并标注,以实现机器学习,从而达到识别人脸的目的。

图1-3-1 人脸数据集

不只是人脸可以制作数据集,各种动物、各种环境,只要采集的样本足够多,都能做成数据集。

大量准确的数据是实现自动驾驶的基础,没有数据,就无法开展研究。特斯拉自动驾驶汽车所用数据集如图1-3-2所示。

图1-3-2 特斯拉自动驾驶汽车数据集示意图

(二)数据集的价值

数据集是自动驾驶技术发展不可缺少的一部分,优质的数据集往往能够为算法开发带来极大的促进作用。而近十年来,自动驾驶数据集变得越来越多,无论是高校还是企业或者是其他组织,都选择开源自己的数据集,促进自动驾驶技术的进步。这些数据集大部分采用多传感器融合技术,能够提供大量不同环境、不同类别及不同场景下的图像、点云及惯性测量单元(IMU)等数据,为目标检测、语义分割、目标跟踪等算法的开发提供了极大的方便。

(三)数据集获取方法

一般在确定研究课题后,最为首要的任务就是获得相应的数据集,通常有下述几种方案:

1)确定特定研究方向后,在网络上查找是否有公开、共享的数据集。

2)如果该研究方向当前没有公开数据集或者公开数据集不适合自己的具体研究问题,那么可能需要亲自去创建新的数据集。

3)参加公开的技术比赛(比如AI挑战赛),这样的比赛通常会提供合适的数据集。

4)与企业进行合作,企业方一般可提供其获取的与实际应用更相关的数据集。

事实上,不同研究方向基本上都有与之相对应的数据集,比如,不仅有文字处理和图像分类任务相关的数据集,也有用于行为识别和目标检测的数据集等。

引导问题2

请查阅相关资料,简述KITTI数据集的内容。

__________________________________________

__________________________________________

__________________________________________

数据集介绍

典型的数据集包括KITTI、ApolloCar3D、BDD100K、nuScenes、Cityscapes、H3D-HRI-US、DAIR-V2X和Unsupervised Llamas等。下面从采集内容、采集设备及方法、标注内容及标注方法等方面对各数据集进行介绍。

(一)KITTI数据集

KITTI数据集(图1-3-3)由德国卡尔斯鲁厄理工学院和芝加哥丰田技术学院联合制作,是目前最大的自动驾驶场景下的计算机视觉算法评测数据集。该数据集用于评测立体匹配(stereo matching)、光流(optical flow)、视觉里程计(visual odometry)、目标检测(object detection)和目标跟踪(object tracking)等计算机视觉技术在车载环境下的性能。

KITTI数据集包含在市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多包含15辆车和30个行人。整个数据集由389对立体图像和光流图(包括194对训练图像和195对测试图像)、39.2km视觉测距序列以及超过20万张3D标注物体的图像组成,采样频率为10Hz,总大小约3TB。

图1-3-3 KITTI数据集官网

(二)ApolloCar3D数据集

ApolloCar3D数据集(图1-3-4)为百度Apollo推出的交通场景解析数据集,包含上万帧的高分辨率RGB视频和与之对应的逐像素语义标注。该数据集包含5277张驾驶图像和超过6万个汽车实例,其中每辆汽车都配备了具有绝对模型尺寸和语义标记关键点的行业级3D CAD模型。该数据集大小为PASCAL3D+和KITTI(现有技术水平)的20倍以上。

图1-3-4 ApolloCar3D数据集

(三)BDD100K数据集

2018年5月,加州大学伯克利分校人工智能实验室(BAIR)发布了公开驾驶数据集BDD100K(图1-3-5),同时设计了一个图片标注系统。BDD100K数据集包含10万段高清视频,每段视频时长约40s,分辨率为720p,帧率为30帧/s。在每段视频的第10s对关键帧进行采样,得到了10万张图片(图片分辨率为1280×720),并进行了标注。BDD100K包含了不同天气(晴天、多云等6种)、场景(高速公路、城市街道等6种)、时间(昼间、夜间)、清晰度(高清、模糊)的图片,是目前规模最大、兼具内容复杂性与多样性的公开驾驶数据集。

图1-3-5 BDD100K数据集

(四)nuScenes数据集

nuScenes数据集是由Motional公司开发的用于自动驾驶的大型公开数据集。Motional公司致力于打造安全、可靠和可达的自动驾驶环境。通过向公众发布部分数据,Motional旨在推进计算机视觉和自动驾驶的研究。nuScenes数据集包含1000段场景视频,每段视频时长约20s,并用23个类别和8个属性的3D边界框完全注释。其数据采集车辆配备了6个摄像头(camera)、5个毫米波雷达(radar)、1个激光雷达(LiDAR)和1个惯性测量单元(IMU),如图1-3-6所示。

图1-3-6 nuScenes数据采集车辆

(五)Cityscapes数据集

Cityscapes数据集(图1-3-7)是专注于对城市街景的语义理解的大型数据集,包含从50个不同城市的街景中记录的各种立体视频序列,5000个高质量的像素级注释帧,20000个弱注释帧,提供了关于注释类的详细信息和注释示例。

图1-3-7 Cityscapes数据集

(六)H3D-HRI-US数据集

H3D-HRI-US数据集(图1-3-8)是本田研究所于2019年3月发布的自动驾驶方向数据集,收集了使用3D LiDAR扫描仪采集的大量全环绕3D多目标检测和跟踪数据。其包含160个拥挤且高度互动的交通场景,在27721帧中共有约100万个标记实例,凭借独特的数据集大小、丰富的注释和复杂的场景,激发了对全环绕3D多目标检测和跟踪的研究。

图1-3-8 H3D-HRI-US数据集

(七)DAIR-V2X数据集

DAIR-V2X数据集(图1-3-9)包含71254帧图像数据和71254帧点云数据。其中,DAIR-V2X协同数据集(DAIR-V2X-C)包含38845帧图像数据和38845帧点云数据;DAIR-V2X路端数据集(DAIR-V2X-I)包含10084帧图像数据和10084帧点云数据;DAIR-V2X车端数据集(DAIR-V2X-V)包含22325帧图像数据和22325帧点云数据。

DAIR-V2X数据集首次实现了车路协同时空同步标注。其具备如下特点:数据采集平台传感器类型丰富,包含车端摄像头、车端激光雷达、路端摄像头和路端激光雷达等;障碍物目标3D标注属性全面,标注了10类道路常见障碍物目标;采集自北京市高级别自动驾驶示范区内10km城市道路、10km高速公路以及28个路口;数据涵盖晴天/雨天/雾天、昼间/夜间、城市道路/高速公路等丰富场景;数据完备,包含脱敏后的原始图像和点云数据、标注数据、时间戳、标定文件等。

图1-3-9 DAIR-V2X数据集

(八)Unsupervised Llamas数据集

Unsupervised Llamas数据集由博世(Bosch)公司自动驾驶团队发布于2019年,该数据集是最大的高质量车道标记数据集之一,包括100042张有标签的车道标记图像,来自约350km的驾驶记录。生成标记图像的流水线(pipeline)利用自动创建的地图将标记投射到摄影图像中,并依靠优化程序来提高标签的准确性。数据集包含像素级的虚线车道标记、每个标记的2D和3D端点以及连接标记的车道关联。自动生成的数据集中的错误标记(图1-3-10)被人工过滤。

图1-3-10 Unsupervised Llamas数据集中的错误标记

引导问题3

第一个包含雷达数据的自动驾驶数据集是什么?

__________________________________________

__________________________________________

__________________________________________

数据集之间的比较

上述数据集中,KITTI是诞生最早的较为全面且合理的数据集,所以率先成为该领域的基准,后续的许多研究都是通过从KITTI中进行抽取或改良来获取试验用数据的。ApolloCar3D数据集作为在中国国内诞生的数据集,在收集的数据量上有所突破,为国内自动驾驶领域做出了杰出贡献。BDD100K数据量最大、最全面,数据种类的多样性也几乎能覆盖所有的自动驾驶场景。nuScenes是以场景划分为标志的多模态3D数据集,是第一个包含雷达数据的自动驾驶数据集。Cityscapes数据集致力于捕捉真实城市内部交通场景的可变性和复杂性,数据量不大,更为精简。H3D-HRI-US数据集专注于自动驾驶系统在现实生活环境中学习人类驾驶员的行为,采用了一种新的注释方法用于从未经修剪的数据序列中理解驾驶员行为。DAIR-V2X数据集是首个用于车路协同自动驾驶研究的大规模、多模态、多视角数据集,其全部数据采集自真实场景,同时包含2D和3D标注。Unsupervised Llamas数据集是最大的高质量车道标记数据集之一。

引导问题4

目前主流的开源自动驾驶仿真平台项目包括哪些?

__________________________________________

__________________________________________

__________________________________________

__________________________________________

__________________________________________

__________________________________________

开源工具

在汽车自动驾驶领域中,前期的开发都是在自动驾驶研发平台上完成的,通常会运用仿真系统工具对汽车运行场景进行模拟,从而得到汽车在相应场景下的初期数据,同时也可以保证自动驾驶开发初期的安全性。目前主流的开源自动驾驶仿真平台项目包括CARLA、AirSim、Udacity’s Self-Driving Car Simulator、Apollo和Autoware等。

从技术层面来看,这些平台主要分为两类:

第一类是基于合成的数据,对环境、感知及车辆进行模拟,这里的感知大多数是图像层面的感知,这类仿真平台主要用于感知、规划算法的初步开发上,CARLA、AirSim、Udacity’s Self-Driving Car Simulator就属于这一类。

第二类是基于真实数据的回放,这里的真实数据包括图像、LiDAR、radar等各种传感器的数据,这类仿真平台主要用于测试自动驾驶系统中信息融合算法以及车辆不同部件的性能,Apollo和Autoware就属于这一类。

小组分工

学生任务分配表

工作计划

按照前面所了解的知识内容和小组内部讨论的结果,制订工作方案,落实各项工作负责人,如任务实施前的准备工作、实施中的主要操作及协助支持工作、实施过程中相关要点及数据的记录工作等,并将结果填入工作计划表中。

工作计划表

进行决策

1)各组派代表阐述资料查询结果。

2)各组就各自的查询结果进行交流,并分享技巧。

3)教师结合各组完成的情况进行点评,选出最佳方案。

任务实施
评价反馈

1)各组代表展示汇报PPT,介绍任务的完成过程。

2)请以小组为单位,对各组的操作过程与操作结果进行自评和互评,并将结果填入综合评价表中的小组评价部分。

3)教师对学生工作过程与工作结果进行评价,并将评价结果填入综合评价表中的教师评价部分。

综合评价表

(续) 6nZz0xkdDN1ZUUf5I324sO3SmJAc9IN4g0t1aHnJieLOuvuH2W29hHKl1mgmTqPo

点击中间区域
呼出菜单
上一章
目录
下一章
×

打开