智能网联汽车技术专题-感知&HMI&测评2022年
本文通过分析驾驶人驾驶行为生成机制,构建了类人行为决策策略(HBDS)。它具有匹配驾驶行为生成机制的策略框架,通过最大熵逆强化学习得到类人奖励函数,并采用玻尔兹曼理性噪声模型建立行为概率与累积奖励的映射关系。通过预期轨迹空间的离散化处理,避免了连续高维空间积分中的维数灾难,并基于统计学规律和安全约束对预期轨迹空间进行压缩和修剪,提升了HBDS采样效率。HBDS在NGSIM数据集上进行训练和测试的结果表明,HBDS能做出符合驾驶人个性化认知特性和行为特征的行为决策。
可靠的定位与导航是实现自动驾驶的先决条件。单车视觉同时定位与建图(SLAM)技术能够在GNSS拒止的情况下实现车辆的定位,但累积误差会随运行时间逐渐增加,难以持续准确完成定位任务。通过多车协同视觉SLAM可以提升定位效果。本文提出了一种鲁棒、轻量化的分布式多车协同视觉SLAM系统,该系统以ORB-SLAM2作为视觉里程计,利用NetVLAD全局图像描述子实现多车间共视区域识别和数据关联;提出了一种基于数据相似性和结构一致性的方法,实现多车间闭环离群值剔除;提出了一种分布式位姿图优化方法,提高多车协同定位精度。经过自主搭建平台所采集的真实数据以及KITTI数据集测试,该系统相较于已有的主流视觉SLAM算法以及协同SLAM算法均具有更高的定位精度。
如果车辆在道路上能精确而快速地理解人和车的语义,就能在很大程度上对障碍躲避、路径规划等做出指导。现有的基于深度学习的语义分割方法存在分割速度和分割精度不能兼得等问题。本文在现有语义分割网络的基础上,通过在特征提取基准网络后添加空洞空间池化金字塔结构,可以获取图像的多尺度语义信息。实验结果表明,文中提出的A_ASPP_1和A_ASPP_2两个模块能对自动驾驶场景中常见的人和各类车辆图像进行有效的分割。对应的两种改进的网络结构虽然分割速度稍有降低,但其训练结果的平均交并比相比现有双分支网络BiSeNet分别提升了2.1和1.2个百分点。
面向自动驾驶车辆预期功能安全(SOTIF)场景的不同测试标定要求和侧重,本文提出了一种基于行车安全场(DSF)理论的SOTIF场景风险评估方法。首先,利用DSF对场景的各层元素进行风险量化,从而实现风险的集成计算。通过分析SOTIF场景的定义与架构和DSF模型的参数,证明该模型满足SOTIF场景的风险评估要求。接着将所提方法应用于3类车辆运行场景的划分中,分别是已知安全、已知不安全和未知安全/不安全。为实现场景的划分,将DSF理论中不同的驾驶状态与SOTIF中车辆的运行场景进行匹配。最后,进行了封闭场地和开放道路的测试。一方面将相对驾驶安全系数指标RDSI与碰撞时间TTC指标作对比,验证了RDSI可更准确、敏感地评估行车风险。另一方面,证明了所提方法可有效地实现场景划分。
本文中提出了一种基于自然驾驶数据库的自动驾驶汽车测试场景基元自动提取方法。以隐马尔科夫模型为框架,采用向量自回归模型为观测概率分布函数,采用层次狄利克雷过程为模型进行先验分布和后验更新,通过解耦过程和黏性过程抑制模型隐状态的快速切换,实现给定观测数据下隐状态的求解,并根据隐状态对场景基元进行自动划分。最后,以一段随机自然驾驶序列为例进行了算法测试验证,结果表明,所提出的方法可从自然驾驶数据库中非参数地、可解释地、全自动地提取测试场景基元,所提取的场景基元具有明确的物理意义,可为基于场景的自动驾驶汽车测试奠定良好基础。
对车载激光雷达场景点云进行语义分割是自动驾驶环境感知环节的基础性工作。针对现有处理大规模自动驾驶场景点云方法对局部特征提取能力不足和难以捕捉全局上下文信息的问题,本文基于自注意力机制设计了局部和全局自注意力编码器,并搭建了特征聚合模块进行特征提取。实验结果表明,与同样采用局部特征聚合的网络RandLA-Net相比,在SemanticKITTI数据集上本文的方法可将平均交并比提升5.7个百分点,局部自注意力编码器的加入也使车辆和行人等小目标的分割精度提高2个百分点以上。
传统的车辆同时定位与建图方法多依赖于静态环境假设,在动态场景下易引起位姿估计精度下降甚至前端视觉里程计跟踪失败。本文结合Fast-SCNN实时语义分割网络与运动一致性约束,提出一种动态场景视觉SLAM方法。首先利用Fast-SCNN获取潜在动态目标的分割掩码并进行特征点去除,以获取相机位姿的初步估计;随后基于运动约束与卡方检验完成潜在动态目标中静态点的重添加,以进一步优化相机位姿。验证集测试表明,所训练的语义分割网络平均像素精度和交并比超过90%,单帧图片处理耗时约14.5 ms,满足SLAM系统的分割精度与实时性要求。慕尼黑大学公开数据集和实车数据集测试表明,融合本文算法的ORB-SLAM3部分指标平均提升率超过80%,显著提升了动态场景下的SLAM运行精度与鲁棒性,有助于保障智能车辆的安全性。
针对目前自动驾驶领域的目标检测算法在对道路小目标和密集目标进行检测的时候出现漏检的问题,提出一种融合Lite-HRNet的Yolo v5网络。首先为了获得高分辨率的特征检测图将Lite-HRNet作为Yolo v5的主干网络,以增强对小目标及密集目标的检测。为提升暗光场景下的检测性能,将红外图像与可见光图像进行动态权值融合,充分发挥可见光图像与红外图像的互补优势。由于主干网络进行了充分的特征融合,为加快检测速度取消在检测层中的特征融合结构。其次为了加快收敛速度和提高回归精度采用α-EIoU作为边界框损失函数,同时为选取针对数据集更合适的先验框,使用二分K-means算法进行聚类,并且使用小目标数据增强算法对数据集进行样本扩充。最后在flir数据集上进行对比测试,根据实验结果,提出的算法比Yolo v5在平均精度上提高了7.64%,小目标和密集目标的漏检率明显减少。
针对无监督域自适应目标检测中,域的可辨性和不变性之间的矛盾导致域负迁移和多尺度问题,本文中提出了一种可缓解域负迁移的多尺度掩码分类域自适应网络。首先在主干网络上对多个中间层进行图像级域对抗训练。接着在图像级特征图上加入区域提议掩码,作为一种补充信息对实例特征进行补充。最后提出分类别实例级域分类器,在保证域可辨性前提下,使网络尽可能地提取出有效的域不变信息。在Cityscapes和FoggyCityscapes两个数据集上进行验证的结果表明,本文提出的多尺度掩码分类域自适应网络,其域分类平均精度的平均值提高了13.2个百分点,说明网络域自适应能力显著提升。
为更合理地选取前向碰撞预警指标并针对不同驾驶人个性化地设置其预警阈值,提出了基于信号检测论与秩和比法的前向碰撞预警指标综合评价方法,实现了基于跟驰数据的驾驶人反应时间在线辨识与更新。开展自然驾驶实验采集城市交通环境下的驾驶行为数据,验证了驾驶人反应时间在线辨识的有效性。进一步通过统计分析辨识得到不同驾驶人的个性化预警指标阈值。对不同预警指标阈值结果的综合比较和分析表明:6种前向碰撞预警指标中安全裕度(SM)最优;风险感知系数(RP)次之;秩和比值按大小依次为距离碰撞时间倒数(TTCi)、车头时距(THW)和预警系数(W);时间裕度(TM)评价结果波动较大。
为深入理解驾驶员行为,本文对驾驶员在弯道工况下的主观风险感知进行量化探索。首先,提出基于1/CTLC、1/STLC与1/TAD指标的驾驶员弯道工况主观风险感知量化方法。其次分别针对潜在风险感知和显性风险感知特性设计主观评价实验,利用数值评估法获得驾驶员的风险评估值,根据史蒂文斯幂定律对结果进行拟合,构建了驾驶员弯道主观风险感知模型。最后,基于该模型对驾驶员自然驾驶数据进行分析,结果表明本文构建的风险感知模型能反映弯道工况下驾驶员的风险感知特性。
激光点云语义分割是自动驾驶系统中道路场景感知的重要分支。虽然主流方法将点云转换为规则的二维图像或笛卡尔栅格进行处理,减少因点云非结构化所带来的计算量,但二维图像方法不可避免地改变点云的三维几何拓扑结构,而笛卡尔栅格忽略了室外激光点云的密度不一致性,从而限制了包括行人和自行车等小物体的语义分割能力。因此,本文中提出了一种基于三维锥形栅格和稀疏卷积的激光点云语义分割方法,利用锥形栅格分区解决了点云的稀疏性和密度不一致的问题;为提高模型推理速度,设计了重参数化三维稀疏卷积网络。在SemanticKITTI和nuScenes两个大规模数据集上对所提方法进行评估。结果表明,与目前最新的点云分割方法相比,所提方法的平均交并比分别提升了1.3%和0.8%,尤其对小物体识别有显著的提升。
为解决小概率高风险边缘测试场景的问题,本文提出一种基于场景动力学和强化学习的边缘场景生成方法,实现边缘场景的自动生成,能模拟真实世界中车辆间的对抗与博弈行为的特征。首先将随时间动态变化的场景模型由一组微分方程描述为场景动力学系统;然后利用神经网络作为通用函数逼近器来构造场景黑盒控制器,并基于强化学习实现边缘场景控制器的优化求解;最后以超车切入场景为例,在Matlab/Simulink软件进行仿真验证,结果表明,边缘场景强化生成模型在场景交互博弈、覆盖率和可重复测试等方面具有良好的性能。
针对路侧采集的激光雷达点云数据随距离增大而密度下降导致同一目标的点云被分割成多个目标的问题,提出了一种基于自适应阈值DBSCAN的路侧点云分割算法。首先,使用改进GPF和直通滤波对采集的路侧点云进行过滤,提取出道路区域上的非地面点云;然后,基于有效距离和sigmoid函数构建自适应系数函数,对DBSCAN聚类算法集群生长中近邻点搜索时半径阈值的选取规则进行优化;最后,利用自适应阈值DBSCAN聚类算法对非地面点进行聚类,得到隶属于单个目标的点云。采集了1 055帧真实场景的连续数据进行测试,结果显示:C-H系数平均约增加3倍、D-B系数平均减少4.52%、轮廓系数平均增加77.78%,这表明基于自适应阈值DBSCAN的分割算法能提高点云簇的类内一致性和类间差异性,有效减少路侧激光雷达点云的过分割现象,具有较高的工程应用价值。
交通车意图识别对提升智能汽车决策规划性能具有重要意义。本文从驾驶行为生成机理角度分析了驾驶人换道过程的各阶段,分别建立了基于马尔可夫决策过程的驾驶人意图预测模型、基于动态安全场的换道可行性分析模型和基于双向多长短期记忆网络(Bi-LSTM)的车辆行为识别模型。通过融合具有明确时序关系的上述模型,提出了一种数据机理混合驱动的交通车意图识别方法,并利用NGSIM数据集进行模型训练和验证。结果表明该方法在交通车到达换道点前1.8 s处的识别准确率即超过90%,在换道点处识别准确率可达97.88%,具有较高的识别准确率和较长的提前识别时间。
为准确获取在城市峡谷等GNSS定位受限环境下的车辆位置,提出了一种视觉与单路侧单元(RSU)辅助的车辆定位方法。利用相机观测车辆到车道线的横向距离,利用单RSU与车辆进行测距与通信,通过误差状态卡尔曼滤波算法对GNSS、IMU、RSU和相机观测信息进行融合,实现对车辆位姿的准确估计。针对上述方法进行了实车测试,分析了单RSU测距信息和横向距离观测对定位结果的影响。结果表明:单RSU测距信息可有效降低纵向定位误差,但对横向定位误差的修正作用随着远离RSU逐渐降低,横向距离观测可有效弥补这一不足。二者优势互补,水平定位均方根误差小于10 cm,验证了所提出方法的有效性。
为提高智能车定位精度,提出了一种融合激光雷达与双层地图模型的智能车定位方法。该双层地图模型在车道图层基础上,增加基于激光点云的稀疏特征图层。稀疏特征地图由车辆位姿、2D强度特征和3D特征3部分组成,可为智能车定位提供精确的位置参考,以有效降低累积定位误差。此外,本文利用激光雷达强度信息提取车道线,为智能车定位提供高精度的、线性的横向位置约束。在定位过程中,引入Kalman滤波框架完成激光雷达与双层地图之间的有效融合。其中,状态预测过程利用车辆的运动约束构建短时间匀速运动模型,观测变量包括激光里程计定位结果、基于车道图层的横向位置约束和基于稀疏特征图层的定位结果。为了验证本文算法的有效性,在校园和城市道路环境下进行了测试。结果表明:本文提出的融合定位算法能在不同环境中将现有定位方法的定位误差降低40%~60%,定位相对误差小于0.3%。
从行人视觉认知角度出发,提出一种基于行人视野注意力场的人车微观交互模型。构建视野注意力场驱动行人视野域,利用人工势场驱动行人运动,利用目标捕捉算法来控制行人视野域对目标的捕捉。为了验证模型的有效性,使用无人机采集鸟瞰视角下的人车交互数据并进行处理分析,将行人过街风格分为保守、谨慎和冒险 3种类型,在Pygame平台下搭建仿真场景和交互模型,把不同行人过街风格的交互数据作为模型输入,以模型输出的行人时空轨迹与采集的真实时空轨迹之间的相似度进行实验对比。结果表明,建立的基于行人视野注意力场的人车微观交互模型比常规人工势场模型准确性提高了25.48%,能够有效地复现实际交通场景中的人车交互过程。
为满足驾驶辅助系统在城市交叉口对类人驾驶能力的更高需求,本文中研究了实际交通中的驾驶人在该区域的纵向驾驶行为特征。从自然驾驶数据中提取了778条驾驶人接近城市交叉口的样本数据,应用YOLOv4识别了交通场景中的各类道路使用者,采用方差分析研究了反应特性在不同运动类型和交通密度中的差异,建立分层回归模型分析了制动特性与运动状态、运动类型和道路使用者的关系。结果表明:高密度交通显著降低接近速度;与右转驾驶人相比,停车驾驶人的反应距离更长;当接近速度较高或反应距离较短时,会在更短的时间内以更高的减速度和制动强度接近交叉口,且提前4.46 s开始制动;不同道路使用者对制动特性产生了不同影响,停车驾驶人主要关注同向行驶的他车,右转驾驶人主要关注行人和骑车人。
本文中提出了基于自动驾驶目标和事件探测与响应(OEDR)的测试道路分类方法,构建基于设计运行范围的道路元素基础模型,改进Jaccard Similarity有效相似度算法用于测试道路符合性评估。本文中还根据测试道路选取,提出了基于设计运行条件(ODC)边界的测试方法,结合乘员主观评价形成自动驾驶汽车实际道路测评体系。选取我国典型道路开展的试验结果表明,本文中提出的测评体系具有可行性和普适性,可作为一种标准化方法广泛应用。