基于因子图的激光雷达/里程计/惯性测量单元紧耦合融合框架
利用因子图算法实现对移动机器人运动状态及传感器参数的同步估计
提出了基于激光雷达/红外相机融合的目标识别方法,能够对弱光照环境下的多种目标进行识别与相对定位
在结构退化环境中,本文方法能够将移动机器人的定位精度提升 50% 以上,并对弱光照环境中的目标实现厘米级的相对定位精度
地下环境作为一种典型的卫星拒止复杂环境,极大地限制了人类的感知能力。
传统的基于激光雷达辅助的多源信息融合方法多是采用松耦合的方式。该类方法对各信息源分开进行解算,在此基础上采用滤波或因子图的方式进行融合。
在地下空间中,常常会出现“结构退化环境”,如长直走廊等。激光雷达的点云信息通常是特征缺失的,在车体运动的前后方向没有可用的有效点进行位姿约束。
在松耦合的情况下,会将这种错误的激光雷达里程计信息作为后端的融合输入,从而导致最终的融合结果受到影响。
相比于松耦合方式,将激光雷达扫描获取的点云信息作为观测量加入到后端融合中,能够有效地避免结构退化环境给融合结果带来的影响。
利用惯性测量单元/里程计预测激光雷达的运动,并假设激光雷达在扫描期间呈线性运动,通过线性插值矫正每个点云以补偿点云畸变。
通过惯性递推方程更新系统状态并计算惯性测量单元/里程计预积分量测结果,对激光雷达原始数据进行处理以获得去除畸变后的点云数据。根据先前对应的优化状态,将局部窗口内先前的激光雷达特征点合并为一个局部地图,从而找出相对激光雷达测量数据。

为了解决这个问题,引入惯性预积分理论以避免重复积分问题。但是,以上的预积分方法多针对精度较低的微机电系统(MEMS)惯性器件,由于该类器件本身无法测量地球自转角速度以及载体运动带来的导航坐标系与地球坐标系的转动角速度,因此其对应的预积分模型不得不作一定程度的简化。
本文提出了一种面向高精度惯性导航系统的预积分方法。考虑到地球自转角速度以及载体运动产生的有害加速度,重新构建了惯性器件输出模型。同时,考虑到里程计的递推特性,将里程计的测量信息投影到机体坐标系下,从而形成高精度惯性测量单元/里程计预积分模型。
在目标识别方面,现有的目标识别方法往往是通过手动设计特征提取器,例如 Haar 特征、方向梯度直方图(HOG)特征和尺度不变特征变换(SIFT)特征。在此基础上使用支持向量机(SVM)模型以及可形变部件模型(deformable part model,DPM)等模型进行图像分类,但是其检测速度与准确度都相对较低。
本文提出了基于激光雷达/红外相机融合的目标识别方法。针对单目红外相机无法获取物体尺度信息的问题,引入了激光雷达点云信息进行补充。(为什么不用RGB-D相机?黑暗环境下RGB信息缺失多。)因此需要对红外图像数据与激光雷达点云数据进行联合校准,即将点云投影到红外图像上获取对应的深度信息,再对目标的相对位置进行解算。
同时,设计了基于神经网络架构的单阶段(one stage)目标检测算法,在保证检测速度与检测精度的同时,能够对图像中感兴趣的物体进行检测标注,获取其在图像中的位置。(黑暗环境下视觉检测算法是否有一个检测上限)。

采用 Darknet-53 网络
调整预测框和先验框的位置,用损失函数不断修正(负责哪块,哪块不搞损失函数)
若第 i i i 个网格的第 j j j 个先验框负责预测该物体,则 I i j o b j I_{ij}^{obj} Iijobj 为 0;
若第 i i i 个网格的第 j j j 个先验框不负责预测该物体,则 I i j n o o b j I_{ij}^{noobj} Iijnoobj 为 0。
通过调整 λ c o o r d λ_{coord} λcoord 以及 λ n o o b j λ_{noobj} λnoobj 来调整两部分的损失权重,使网络更快收敛。
其中, f u f_{u} fu、 f v f_{v} fv、 u 0 u_{0} u0 和 v 0 v_{0} v0 可通过相机内部参数得到, R R R 和 t t t 为激光雷达与红外相机之间的外部参数,可通过联合标定得到。
因此采用均值滤波的方式获取稠密深度图。
若通过目标识别算法获取到的物体检测框为 ( x 1 , y 1 , x 2 , y 2 ) (x_{1},y_{1}, x_{2}, y_{2}) (x1,y1,x2,y2),取其中心作为物体在 2 维平面中的位置,则可计算出其对应深度值,进而通过相机内参矩阵反计算出其在相机坐标系下的位置,实现相对定位功能。
在室内长廊夜晚环境中开展了试验测试,用于验证本文所提出的定位与感知方法。
试验场景为教学楼内的光滑长直走廊,用于模拟地下空间的结构退化环境。
目标探测识别定位试验选择在夜晚环境中进行,用于模拟地下空间的弱光照环境。在试验过程中,首先在场地的不同位置放置待探测目标,如背包、对讲机等。并利用全站仪对每个目标的绝对位置进行标定。