2024年4月6日发(作者:)

山东科学

第35卷第3期2022年6月出版

Vol.35No.3Jun.2022

SHANDONGSCIENCE

面向自动驾驶的驾驶环境视觉感知复杂度量化评估方法

余荣杰

ꎬ赵岁阳

ꎬ董浩然

(1.同济大学道路与交通工程教育部重点实验室ꎬ上海201804ꎻ2.新加坡国立大学土木工程系ꎬ新加坡117576)

摘要:为优选自动驾驶汽车开放测试、示范道路并支撑其驾驶环境的优化ꎬ提出面向自动驾驶的驾驶环境视觉感知复杂

度量化评估方法ꎮ以百度街景地图作为驾驶环境数据源ꎬ运用脚本文件以及截图工具PicPick搭建自动化街景图像数据

提取平台ꎬ并在不同区域、不同道路等级下采集上海市50条典型道路的驾驶环境数据ꎻ从行人、交通标志、交通标线、红

绿灯、车辆5方面出发ꎬ构建驾驶环境要素感知平台ꎬ并开展感知精度的量化评估ꎻ在单要素感知准确率的基础上ꎬ采用

熵权法确定多维感知要素权重ꎬ计算各道路综合感知准确率ꎬ并应用轮廓系数法与K ̄means

++

聚类算法进行视觉感知复

杂度分级ꎮ结果表明ꎬ上海市典型道路的驾驶环境视觉感知复杂度分为三级ꎬ大部分道路的视觉感知复杂度属于2级ꎻ

对比不同等级道路发现ꎬ支路的视觉感知复杂度总体上低于主干路ꎮ

关键词:视觉感知复杂度ꎻ复杂度分级ꎻ感知关键要素ꎻ驾驶环境ꎻ自动驾驶汽车

中图分类号:U471   文献标志码:A   文章编号:1002 ̄4026(2022)03 ̄0062 ̄10

开放科学(资源服务)标志码(OSID):

Methodforthequantitativeevaluationofthevisualperceptioncomplexityof

drivingenvironmentsforautonomousvehicles

(1.KeyLaboratoryofRoadandTrafficEngineeringoftheMinistryofEducationꎬTongjiUniversityꎬShanghai208104ꎬChinaꎻ

2.DepartmentofCivilEngineeringꎬNationalUniversityofSingaporeꎬSingapore117576ꎬSingapore)

YURong ̄jie

ꎬZHAOSui ̄yang

ꎬDONGHao ̄ran

Abstract∶Tosupporttheoptimalselectionofpublictestingroadsitesandprovideinstructionsforimprovingdriving

environmentsforautonomousvehiclesꎬaquantitativeevaluationmethodfordrivingenvironmentvisualperception

complexitywasproposed.BasedonthedrivingenvironmentdatasetfromBaidustreetviewmapꎬanautomatedextraction

platformofstreetviewimagedatawasestablishedusingascriptfileandthescreenshottoolPicPick.Drivingenvironment

dataof50typicalShanghairoadsofdifferentareasanddifferentroadgradeswerecollected.Thenꎬanelementperception

platformofdrivingenvironmentwasestablishedfromfiveaspects—pedestriansꎬtrafficsignsꎬroadmarkingsꎬtrafficlightsꎬ

andvehicles—toquantitativelyevaluateperceptionaccuracy.Basedonsingle ̄elementperceptionaccuracyꎬtheweights

formultidimensionalperceptionelementsweredeterminedusingtheentropymethodꎬandintegratedperceptionaccuracy

收稿日期:2021 ̄05 ̄11

基金项目:国家重点研发计划(2018YFB0105205)ꎻ国家自然科学基金重点项目(U1764261)

作者简介:余荣杰(1989—)ꎬ男ꎬ副教授ꎬ工学博士ꎬ研究方向为驾驶行为、交通安全ꎬ智能网联汽车测评ꎮE ̄mail:yurongjie@tongji.edu.cn

attheroadlevelwascalculated.ThesilhouettecoefficientmethodandK ̄means

++

clusteringalgorithmwereusedto

proposetheclassificationofvisualperceptioncomplexity.Resultsshowedthatthevisualperceptioncomplexityoftheroad

networkinShanghaicanbedividedintothreelevels.Themajorityofdrivingenvironmentvisualperceptioncomplexitiesof

roadsbelongtolevel2.Inadditionꎬcomparisonsamongroadsofdifferentgradesindicatedthatthevisualperception

complexityoflocalroadsisgenerallylowerthanthatofarterialroads.

Keywords∶visualperceptioncomplexityꎻcomplexityclassificationꎻperceptionkeyelementsꎻdrivingenvironmentꎻ

autonomousvehicles

  自动驾驶汽车作为具有环境感知、规划决策、控制执行等功能的自动化物理信息系统ꎬ目前正处于规模

化开放道路测试与示范运行服务阶段ꎮ然而ꎬ美国加州的自动驾驶汽车开放道路测试安全报告表明ꎬ在自动

驾驶脱离事件中ꎬ系统故障是最常见的脱离原因ꎬ而系统故障中ꎬ感知系统故障占据主要原因

[1]

ꎮ自动驾驶

感器ꎬ是自动驾驶汽车中不可或缺的核心模块

[2]

ꎬ而自动驾驶汽车与人类驾驶者的视觉感知机理、视觉认知

局限等存在明显差异

[3]

ꎮ因此ꎬ自动驾驶汽车的规模化推广应用ꎬ需从自动驾驶汽车视觉感知视角开展道

路优选、场景评估等相关研究ꎮ

目前ꎬ国内外已经开展面向自动驾驶汽车的道路分级方法、驾驶要素场景评估等研究ꎮ2014年Nitsche

[4]

通过文献调研与网络问卷对自动驾驶汽车驾驶环境中的道路标线、交通标志、天气状况等多要素展开

安全性评估研究ꎮ2018年北京市发布的«北京市自动驾驶车辆测试路段道路要求(试行)»

[5]

根据驾驶场景

特征指标对自动驾驶测试路段道路进行评估分级ꎮ2018年深圳市制定的«深圳市智能网联汽车道路测试开

放道路技术要求(试行)»

[6]

将人、车、路、环境等4类因素纳入到道路交通复杂度评价中ꎮ2018年Roxas

[7]

从计算机视觉感知角度出发ꎬ对驾驶环境中交通标志的认知效果进行评估ꎬ以维持道路中交通标志系

统的标准化ꎮ2019年Lu等

[8]

通过开展自动驾驶汽车驾驶场景评估ꎬ对道路标线、交通标志、交通信号灯等

感知要素提出标准化的要求ꎮ然而ꎬ上述道路分级方法是从驾驶场景特征进行定性分级ꎬ尚未形成系统化、

标准化的评价方法ꎬ而场景要素评估侧重于静态驾驶环境ꎬ忽略动态驾驶环境的影响ꎮ因此ꎬ本研究从自动

驾驶视觉感知的角度出发ꎬ开展道路驾驶环境视觉感知复杂度评估ꎬ根据视觉感知结果实现道路视觉感知复

杂度分级ꎮ

考虑到现阶段自动驾驶道路测试受到交通管制、样本量、成本等条件限制ꎬ本文以计算机视觉模拟自动

驾驶汽车环境感知ꎬ从视觉感知结果出发ꎬ针对城市路网展开驾驶环境视觉感知复杂度研究ꎮ主要内容包括

构建自动化街景图像数据提取平台ꎬ获取上海市典型城市道路街景图像样本数据ꎻ针对感知关键要素构建驾

驶环境要素感知平台ꎬ并以感知准确率作为感知精度评估指标ꎬ采用熵权法对感知关键要素进行赋权计算综

合感知准确率ꎻ基于K ̄means

++

聚类算法对综合感知准确率进行分级ꎬ建立城市路网驾驶环境视觉感知复杂

度分级标准ꎮ

汽车通过摄像头、雷达等多源传感器进行环境感知ꎬ其中基于摄像头的视觉感知作为图像信息密度最高的传

1 数据获取

1.1 街景图像数据获取

自动驾驶汽车环境视觉感知的测试数据源是以城市道路为单元、街景图像为单位ꎬ要求图像清晰连续ꎬ

能表征道路的整体特性ꎮ为此ꎬ以百度街景地图作为车载视角的驾驶环境图像数据源ꎬ搭建自动化街景图像

数据提取平台ꎬ在脚本文件与截图工具PicPick的基础下ꎬ采用连续截取、自动保存的方式获取指定道路街

景图像数据集ꎬ实现图像高效获取以及数据连续性ꎬ技术路线如图1所示ꎮ在自动化提取平台下ꎬ图像获取

速度可达到20~25张/minꎬ图片为PNG格式ꎬ分辨率为851

×

610ꎮ

图1 自动化提取平台技术路线

Fig.1 Technicalrouteofautomatedextractionplatform

以上海市路网为例ꎬ选取50条典型道路ꎬ在自动化提取平台中得到8919张驾驶环境数据ꎬ图像平均截

取距离在10m左右ꎮ由于街景图像具有景深ꎬ延伸范围远超过10mꎬ因此ꎬ10m左右的平均截取距离能表

征道路驾驶场景的完整信息ꎮ

1.2 感知关键要素测试数据获取

1.2.1 驾驶环境要素感知平台

驾驶环境作为自动驾驶汽车规划决策的信息依据ꎬ包括静态驾驶环境、动态驾驶环境两大类

[9]

ꎮ静态

驾驶环境主要有交通标志、标线ꎬ动态驾驶环境主要有红绿灯、车辆、行人、天气ꎮ2018年北京市出台的«北

京市自动驾驶车辆道路测试能力评估内容与方法(试行)»与上海市出台的«上海市智能网联汽车道路测试

管理办法(试行)»在自动驾驶汽车测试内容、评估项目上虽有所区别

[10]

ꎬ但在感知层面集中在交通标志、交

驶环境要素感知平台ꎮ行人方面ꎬ方向梯度直方图

支持向量机(HOG

SVM)的方法被认为是行人检测的标

准方法

[11]

ꎮ车辆方面ꎬ2016年Fan等

[12]

采用快速卷积神经网络进行车辆识别ꎬ在kitti数据集下不同车辆检

测难度的准确率依次为95.14%、83.73%和71.22%ꎮ红绿灯方面ꎬ2016年Moizumi等

[13]

基于RGB色彩空间

分割实现信号灯识别ꎬ该识别流程简单ꎬ漏检较少ꎬ拥有较高的识别效果ꎮ交通标线方面ꎬ2017年郭笙听

[14]

基于Hough变换和卡尔曼滤波进行车道线识别ꎬ车道线检测准确率可达94%ꎬ对不同路况、光照条件下

的车道线均具有较好的适应性ꎮ交通标志方面ꎬ2019年Rajendran等

[15]

采用YOLOv3物体检测算法对德国

交通标志检测识别数据集进行检测ꎬ平均精度均值mAP达到92.2%ꎬ具体算法及原理如表1所示ꎮ并对街

景图像进行感知测试ꎬ测试样例如图2所示ꎮ

表1 感知关键要素识别算法及原理

Table1 Recognitionalgorithmsandprinciplesofperceptionkeyelements

要素分类感知关键要素

行人

动态驾驶环境车辆

红绿灯

静态驾驶环境

交通标线

交通标志

关键算法及原理

HOG

SVM的行人检测算法

[16]

快速卷积神经网络

[17]

RGB色彩空间分割

[18]

Hough变换与卡尔曼滤波

[19]

YOLOv3目标检测算法

[15]

通标线、红绿灯、车辆、行人5方面ꎮ因此ꎬ针对这5类感知关键要素ꎬ参照现有典型识别技术及算法构建驾

图2 感知关键要素测试样例

1.2.2 交通要素感知评估方法

Fig.2 Testsamplesofperceptionkeyelements

视觉感知复杂度评估需要通过量化要素感知精度实现ꎮ对于行人、车辆、红绿灯、交通标志ꎬ感知检测方

法是确定要素轮廓ꎬ常采用精确率、召回率、准确率、F1分数等作为算法识别度量指标ꎮ在上述评价指标中ꎬ

准确率是被正确预测为正例数与全部样例的比值ꎬ能反映算法识别的真实水平ꎮ一般机器学习性能评估时ꎬ

数据集通常包括正负样本ꎬ预测结果以图像数为单位ꎮ而实际道路感知准确率计算时ꎬ并不存在正负样本的

分组对照ꎬ无需考虑将负例正确预测为负例(n

TN

)的情况ꎬ并且单张图像中可能包含多个同一要素ꎬ因此ꎬ行

人、红绿灯、交通标志以及车辆的感知精度是以要素个数为单位ꎬ感知准确率(perceptionaccuracy)P计算公

式如下:

TP

FN

FP

TP

ꎬ(1)

式中ꎬn

TP

为将正例正确预测为正例的要素个数ꎬn

FN

为将负例错误预测为正例的要素个数ꎬn

FP

为将正例错

误预测为负例的要素个数ꎮ

交通标线的检测方法是拟合车道标线ꎬ识别评判方法有横向偏差、角度偏差、重叠道路区域等ꎬ但缺乏统

一的判断标准

[20]

ꎮ根据«公路项目安全性评价规范»

[21]

ꎬ车道保持是车辆行驶尤其是在平曲线段行驶的主

为此ꎬ借鉴自动驾驶横向控制下车道保持的安全距离175mm作为偏移阈值

[23]

ꎬ从自动驾驶感知的视角判断

目前自动驾驶横向控制误差最大在100mm左右

[24]

ꎬ同时车道标线宽度为150mmꎮ因此ꎬ从车道标线中心

线出发ꎬ车道识别值与真值之间相对位置的容许横向偏移范围为(

150ꎬ150)mmꎬ当视觉偏差在该范围内

即可实现车道保持的目的ꎮ基于逆透视变换生成车道标线鸟瞰图ꎬ如图3所示ꎮ判断单边车道标线完全处

于横向偏移容许范围内以及虚实线判断是否正确ꎬ单边车道标线感知准确率结果为0/1分布ꎬ以左右侧准确

率平均值作为车道标线感知准确率:

ꎮ(2)

要目的ꎬ而横向偏移常被用来表征横向位置的稳定性

[22]

ꎬ但对于偏离大小的标准ꎬ实际上没有明确的规定ꎮ

识别结果能否支持汽车的横向控制ꎮ而自动驾驶车辆横向偏差是由感知偏差和控制误差等诸多误差叠加ꎬ

图3 车道识别鸟瞰图

  基于驾驶环境要素感知平台以及单要素感知准确率计算方法ꎬ对上海市50条典型道路8919张街景图

像数据进行单要素感知精度量化ꎬ感知准确率结果如图4所示ꎮ

Fig.3 Bird′seyeviewimageoflanedetection

图4 感知关键要素感知准确率

Fig.4 Perceptionaccuracyofperceptionkeyelements

2 驾驶环境视觉感知复杂度量化模型

2.1 熵权法加权

在各类要素感知精度的基础上ꎬ为构建综合性视觉感知复杂度指标ꎬ需探索多要素融合和综合等级划分

等方法ꎮ鉴于自动驾驶汽车运行算法的黑箱特征ꎬ目前暂无法得知自动驾驶汽车视角下驾驶环境中各要素

相对重要程度ꎮ考虑准确率及其波动性是复杂度评估的两个重要维度ꎬ而熵权法是根据各指标差异程度确

定权重的客观赋权方法

[25]

ꎬ可以将各要素感知准确率波动性纳入评估中ꎮ因此ꎬ本文采用熵值法建立了波

动性数据驱动下的客观权重赋值技术方法ꎮ熵值法要素赋权步骤如下ꎮ

æ

11

ç

ç

ç

ç

i1

ç

ç

ç

è

m1