智能网联汽车技术专题-感知&HMI&测评2022年
针对目前自动驾驶领域的目标检测算法在对道路小目标和密集目标进行检测的时候出现漏检的问题,提出一种融合Lite-HRNet的Yolo v5网络。首先为了获得高分辨率的特征检测图将Lite-HRNet作为Yolo v5的主干网络,以增强对小目标及密集目标的检测。为提升暗光场景下的检测性能,将红外图像与可见光图像进行动态权值融合,充分发挥可见光图像与红外图像的互补优势。由于主干网络进行了充分的特征融合,为加快检测速度取消在检测层中的特征融合结构。其次为了加快收敛速度和提高回归精度采用α-EIoU作为边界框损失函数,同时为选取针对数据集更合适的先验框,使用二分K-means算法进行聚类,并且使用小目标数据增强算法对数据集进行样本扩充。最后在flir数据集上进行对比测试,根据实验结果,提出的算法比Yolo v5在平均精度上提高了7.64%,小目标和密集目标的漏检率明显减少。
面向自动驾驶车辆预期功能安全(SOTIF)场景的不同测试标定要求和侧重,本文提出了一种基于行车安全场(DSF)理论的SOTIF场景风险评估方法。首先,利用DSF对场景的各层元素进行风险量化,从而实现风险的集成计算。通过分析SOTIF场景的定义与架构和DSF模型的参数,证明该模型满足SOTIF场景的风险评估要求。接着将所提方法应用于3类车辆运行场景的划分中,分别是已知安全、已知不安全和未知安全/不安全。为实现场景的划分,将DSF理论中不同的驾驶状态与SOTIF中车辆的运行场景进行匹配。最后,进行了封闭场地和开放道路的测试。一方面将相对驾驶安全系数指标RDSI与碰撞时间TTC指标作对比,验证了RDSI可更准确、敏感地评估行车风险。另一方面,证明了所提方法可有效地实现场景划分。
为解决小概率高风险边缘测试场景的问题,本文提出一种基于场景动力学和强化学习的边缘场景生成方法,实现边缘场景的自动生成,能模拟真实世界中车辆间的对抗与博弈行为的特征。首先将随时间动态变化的场景模型由一组微分方程描述为场景动力学系统;然后利用神经网络作为通用函数逼近器来构造场景黑盒控制器,并基于强化学习实现边缘场景控制器的优化求解;最后以超车切入场景为例,在Matlab/Simulink软件进行仿真验证,结果表明,边缘场景强化生成模型在场景交互博弈、覆盖率和可重复测试等方面具有良好的性能。
本文通过分析驾驶人驾驶行为生成机制,构建了类人行为决策策略(HBDS)。它具有匹配驾驶行为生成机制的策略框架,通过最大熵逆强化学习得到类人奖励函数,并采用玻尔兹曼理性噪声模型建立行为概率与累积奖励的映射关系。通过预期轨迹空间的离散化处理,避免了连续高维空间积分中的维数灾难,并基于统计学规律和安全约束对预期轨迹空间进行压缩和修剪,提升了HBDS采样效率。HBDS在NGSIM数据集上进行训练和测试的结果表明,HBDS能做出符合驾驶人个性化认知特性和行为特征的行为决策。
本文旨在针对汽车驾驶智能座舱交互体验,研究并提出了一种智能座舱测试评价方法。基于用车情景细分座舱功能点,根据功能点将主观指标、车辆指标、眼动指标等多维度指标体系相结合,搭建了基于主客观测评方式相结合的座舱交互体验综合评价模型,并通过层次分析法对逐级指标权重进行确定,最终确立基于驾驶员的智能座舱人机工效测评模型。通过座舱交互案例进行验证,表明本模型能对各用车情景下的驾驶座舱功能点进行综合得分量化评价,可为针对驾驶的智能座舱交互体验的优化与研发提供理论依据。
可靠的定位与导航是实现自动驾驶的先决条件。单车视觉同时定位与建图(SLAM)技术能够在GNSS拒止的情况下实现车辆的定位,但累积误差会随运行时间逐渐增加,难以持续准确完成定位任务。通过多车协同视觉SLAM可以提升定位效果。本文提出了一种鲁棒、轻量化的分布式多车协同视觉SLAM系统,该系统以ORB-SLAM2作为视觉里程计,利用NetVLAD全局图像描述子实现多车间共视区域识别和数据关联;提出了一种基于数据相似性和结构一致性的方法,实现多车间闭环离群值剔除;提出了一种分布式位姿图优化方法,提高多车协同定位精度。经过自主搭建平台所采集的真实数据以及KITTI数据集测试,该系统相较于已有的主流视觉SLAM算法以及协同SLAM算法均具有更高的定位精度。
同时建图与定位(SLAM)是自动驾驶功能重要的组成部分,现有算法以激光或视觉惯性里程计为主,未充分利用多模态传感器各自的优势,对特征缺失的场景鲁棒性不足。针对此问题,本文中提出了一种采用激光雷达、摄像头和惯性测量单元(IMU)的多传感器紧耦合SLAM系统。首先它改善了激光雷达点云特征提取和平面拟合的方案,提升了利用点云对视觉特征点深度信息优化的效率和精度。其次提出的紧耦合状态估计框架通过在视觉惯性系统中直接添加激光雷达里程计约束,在不增加算法复杂度的前提下提升了系统的稳定性和精度。最后由粗到精的视觉-激光雷达耦合回环框架进一步降低了系统的长时累计漂移。在开源数据集KITTI上进行大量测试验证的结果表明,与其它常用的算法相比,所提出的算法具有较高的精度和环境适应能力。另外在基于自主搭建的自动驾驶汽车测试平台进行的实车试验还证明本算法可适应长时间大场景的工作环境。
针对基于多传感器信息融合的3维目标检测,提出了一种实时高精度的双阶段深度神经网络PointRGBNet。第1阶段,在区域提案网络中,首先将3维点云投影到2维图像上生成6维RGB点云,然后对输入的6维RGB点云进行特征提取,得到低维特征图与高维特征图,利用融合后的特征图生成大量置信度较高的提案;第2阶段,在目标检测网络中,利用第1阶段生成的提案进行RoI池化,得到特征图上与每个提案对应的特征集合,通过针对性地学习提案的特征集合,实现了更精准的3维目标检测。在KITTI数据集上的公开测试结果表明,PointRGBNet在检测精度上不仅优于仅使用2维图像或3维点云的目标检测网络,甚至优于某些先进的多传感器信息融合网络,而且整个网络的目标检测速度为12帧/s,满足实时性要求。
针对自动驾驶感知域系统的激光雷达、图像传感器、惯性测量单元3种传感器数据融合的时基校准问题,利用机械式激光雷达自身特征设计校准设备、系统及实验方法。基于激光雷达的触发事件和车载图像传感器感知特征,实现两种传感器时基在线标定,并通过示波器测量校验证明该方法的有效性。利用激光雷达扫描频率与触发事件时间差相互关联的特征,将激光雷达与惯性测量单元的标定系统结合,对激光雷达与惯性测量单元时基进行标定,并通过惯性测量单元标定实验证明方法有效性。
针对路侧采集的激光雷达点云数据随距离增大而密度下降导致同一目标的点云被分割成多个目标的问题,提出了一种基于自适应阈值DBSCAN的路侧点云分割算法。首先,使用改进GPF和直通滤波对采集的路侧点云进行过滤,提取出道路区域上的非地面点云;然后,基于有效距离和sigmoid函数构建自适应系数函数,对DBSCAN聚类算法集群生长中近邻点搜索时半径阈值的选取规则进行优化;最后,利用自适应阈值DBSCAN聚类算法对非地面点进行聚类,得到隶属于单个目标的点云。采集了1 055帧真实场景的连续数据进行测试,结果显示:C-H系数平均约增加3倍、D-B系数平均减少4.52%、轮廓系数平均增加77.78%,这表明基于自适应阈值DBSCAN的分割算法能提高点云簇的类内一致性和类间差异性,有效减少路侧激光雷达点云的过分割现象,具有较高的工程应用价值。
自动驾驶数据集的丰富性是保证基于深度学习的自动驾驶算法鲁棒性和可靠性的关键。当前的自动驾驶数据集在夜晚场景和各类气候、天气条件下的数据量仍十分有限,为满足无人驾驶领域的应用需求,本文中构建了风格迁移网络,可将当前自动驾驶数据集转换为夜晚、雪天等多种形式。该网络采用单编码器-双解码器结构,综合语义分割网络、跳跃连接和多尺度鉴别器等多种手段用于提高图像的生成质量,生成的图像具有良好的视觉效果。用真实数据训练deeplabv3+语义分割网络来评价生成图像的结果表明,本文采用的网络生成图像的平均交并比比基于双编码-双解码结构的两种网络(AugGAN和UNIT)分别提升了2.50%和4.41%。
交通车意图识别对提升智能汽车决策规划性能具有重要意义。本文从驾驶行为生成机理角度分析了驾驶人换道过程的各阶段,分别建立了基于马尔可夫决策过程的驾驶人意图预测模型、基于动态安全场的换道可行性分析模型和基于双向多长短期记忆网络(Bi-LSTM)的车辆行为识别模型。通过融合具有明确时序关系的上述模型,提出了一种数据机理混合驱动的交通车意图识别方法,并利用NGSIM数据集进行模型训练和验证。结果表明该方法在交通车到达换道点前1.8 s处的识别准确率即超过90%,在换道点处识别准确率可达97.88%,具有较高的识别准确率和较长的提前识别时间。
为提高作为自动驾驶系统安全性验证手段的场景测试的效率,本文中提出了一种自动驾驶系统并行加速测试方法。首先根据自动驾驶系统测试需求,构建了由顶层管理层、中层协调层和底层执行层构成的3层加速测试架构。然后确定不同层级的具体任务:顶层管理单元流动,中层协调参数计算,底层执行试验运行。最后以前车切入场景为例,对某黑盒自动驾驶算法分别使用并行加速、并行遍历、单线程加速和单线程遍历4种方式进行对比测试。结果表明,在测试具体场景总数为4 590的情况下,4种方式均发现所有危险场景,但其耗时差别悬殊,分别为1.3、5.7、22.4和96.2 h。说明本文提出的并行加速测试方法可有效、快速地发现参数空间中的危险场景,提高自动驾驶系统测试效率。
传统的车辆同时定位与建图方法多依赖于静态环境假设,在动态场景下易引起位姿估计精度下降甚至前端视觉里程计跟踪失败。本文结合Fast-SCNN实时语义分割网络与运动一致性约束,提出一种动态场景视觉SLAM方法。首先利用Fast-SCNN获取潜在动态目标的分割掩码并进行特征点去除,以获取相机位姿的初步估计;随后基于运动约束与卡方检验完成潜在动态目标中静态点的重添加,以进一步优化相机位姿。验证集测试表明,所训练的语义分割网络平均像素精度和交并比超过90%,单帧图片处理耗时约14.5 ms,满足SLAM系统的分割精度与实时性要求。慕尼黑大学公开数据集和实车数据集测试表明,融合本文算法的ORB-SLAM3部分指标平均提升率超过80%,显著提升了动态场景下的SLAM运行精度与鲁棒性,有助于保障智能车辆的安全性。
对车载激光雷达场景点云进行语义分割是自动驾驶环境感知环节的基础性工作。针对现有处理大规模自动驾驶场景点云方法对局部特征提取能力不足和难以捕捉全局上下文信息的问题,本文基于自注意力机制设计了局部和全局自注意力编码器,并搭建了特征聚合模块进行特征提取。实验结果表明,与同样采用局部特征聚合的网络RandLA-Net相比,在SemanticKITTI数据集上本文的方法可将平均交并比提升5.7个百分点,局部自注意力编码器的加入也使车辆和行人等小目标的分割精度提高2个百分点以上。
本文中提出了一种基于自然驾驶数据库的自动驾驶汽车测试场景基元自动提取方法。以隐马尔科夫模型为框架,采用向量自回归模型为观测概率分布函数,采用层次狄利克雷过程为模型进行先验分布和后验更新,通过解耦过程和黏性过程抑制模型隐状态的快速切换,实现给定观测数据下隐状态的求解,并根据隐状态对场景基元进行自动划分。最后,以一段随机自然驾驶序列为例进行了算法测试验证,结果表明,所提出的方法可从自然驾驶数据库中非参数地、可解释地、全自动地提取测试场景基元,所提取的场景基元具有明确的物理意义,可为基于场景的自动驾驶汽车测试奠定良好基础。
本文中提出了基于自动驾驶目标和事件探测与响应(OEDR)的测试道路分类方法,构建基于设计运行范围的道路元素基础模型,改进Jaccard Similarity有效相似度算法用于测试道路符合性评估。本文中还根据测试道路选取,提出了基于设计运行条件(ODC)边界的测试方法,结合乘员主观评价形成自动驾驶汽车实际道路测评体系。选取我国典型道路开展的试验结果表明,本文中提出的测评体系具有可行性和普适性,可作为一种标准化方法广泛应用。
分心驾驶行为识别任务可以看作细粒度图像分类任务,即图像中较小区域所包含的特征决定了该图像的类别,如一张图像是正常驾驶还是与副驾驶聊天完全由驾驶员的脸部朝向来决定。对于那些图像差异很小的类别,图像分类通常训练方法训练出的模型无法高精度地区分。针对这一问题,提出了基于类间距优化的分心驾驶行为识别模型训练方法,通过增大模型从异类图像所提取特征向量之间的欧式距离,使得模型学到可以区分那些图像差异很小的类别的细微特征,进而提高模型对这些类别的分类准确率。该方法实现了端到端的模型训练,既不增加模型的推理时延,又不引入额外监督信息。State Farm数据集上的试验表明,与图像分类通常训练方法比,该训练方法有效提高了模型的准确率。
为深入理解驾驶员行为,本文对驾驶员在弯道工况下的主观风险感知进行量化探索。首先,提出基于1/CTLC、1/STLC与1/TAD指标的驾驶员弯道工况主观风险感知量化方法。其次分别针对潜在风险感知和显性风险感知特性设计主观评价实验,利用数值评估法获得驾驶员的风险评估值,根据史蒂文斯幂定律对结果进行拟合,构建了驾驶员弯道主观风险感知模型。最后,基于该模型对驾驶员自然驾驶数据进行分析,结果表明本文构建的风险感知模型能反映弯道工况下驾驶员的风险感知特性。
从行人视觉认知角度出发,提出一种基于行人视野注意力场的人车微观交互模型。构建视野注意力场驱动行人视野域,利用人工势场驱动行人运动,利用目标捕捉算法来控制行人视野域对目标的捕捉。为了验证模型的有效性,使用无人机采集鸟瞰视角下的人车交互数据并进行处理分析,将行人过街风格分为保守、谨慎和冒险 3种类型,在Pygame平台下搭建仿真场景和交互模型,把不同行人过街风格的交互数据作为模型输入,以模型输出的行人时空轨迹与采集的真实时空轨迹之间的相似度进行实验对比。结果表明,建立的基于行人视野注意力场的人车微观交互模型比常规人工势场模型准确性提高了25.48%,能够有效地复现实际交通场景中的人车交互过程。