• RSLO:自监督激光雷达里程计(实时+高精度,ICRA2022)


    论文阅读:Robust Self-Supervised LiDAR Odometry Via Representative Structure Discovery and 3D Inherent Error Modeling(RAL 2022& ICRA2022)

    Motivation

    激光雷达在自动驾驶中是个必要的传感器,但是激光雷达由于自身数据的稀疏性和信噪比的问题会给运动估计的鲁棒性带来比较大的挑战,如下图,即使是两帧相邻的激光雷达点云,也会由于动态物体和错位带来一个误匹配,这种误匹配对于激光雷达里程计是非常致命的,所以如何发现并且减轻这些不可靠区域的权重是一个值得研究的问题。

    4d2bd2f2499e79f006f8a0fb5069351f.png

    另一方面,虽然基于3D CNN的模型已经证明了能在一定程度上解决上述问题,但是现在有的基于3D CNN的自监督激光雷达里程计并没有明确的设计来强制网络自适应地聚焦于可靠区域,并且自监督方法通常利用扫描之间的几何一致性来实现自我运动估计。如上图所示,几何一致性在实践中可能无法完全保持。并且现有的大多数方法都是通过估计不确定性标量从而在类别级别上建模并优化固有误差。但是如下图所示,固有误差大小不仅在不同类别中不同,而且在不同方向上也不同,所以需要一个更细致的固有误差模型来区分训练过程中不同方向上的不确定性差异。

    dbf45a43198edc8d7d70b5d05d78d957.png

    Contribution

    1. 提出了一个两阶段的自我运动估计框架,将网络的重点放在两帧LiDAR里程计的代表性结构上。

    2. 通过3D CNN估计逐点协方差,并且对点的不确定性进行建模,从而在此基础上更好地降低自监督损失的固有误差。

    3. 引入一个不确定性感知建图模块,该模块将发现的代表性结构和CNN的逐点协方差估计用于地图构建和scan2map的位姿优化。。

    4. 在KITTI数据集的平移/旋转误差方面,所提出的自监督里程计比之前的技术水平高出16%/12%,在Apollo Southbay上的表现也很好。基于建图模块和更多的训练数据,所提出的系统甚至可以实时高效地与有监督的方法竞争。

    代码已开源:https://github.com/SamuelYale/RSLO 

    Content

    1. 帧间激光雷达里程计

    传统的激光雷达里程计通常是基于环境是绝对刚性的前提,但是现实环境由于动态物体的存在,必然不是绝对港行的,为了缓解这种困境,可以将激光雷达的单帧扫描视为一系列子区域,并假设只有一部分子区域对应于具有良好测量条件的静态对象从而可以满足绝对刚性假设。

    基于这个宽松的假设,将自监督里程计分为两个阶段,第一阶段估计子区域的刚性变换,第二阶段使用这些子区域变换加权投票给出最终的自我运动估计,整体流程如下。几何特征编码器将输入的激光雷达扫描和编码进高维的特征向量和,每个特征可以代表扫描的一个子区域块,该子区域被命名为几何单元(GU),这些特征的信道连接送到几何单元变换估计模块,从而分层地估计两帧之间的几何单元(GU)变换。在自我运动估计投票期间,自我运动根据最终层的GU变换估计进行投票。预测的投票权重通过自监督训练管道集中于具有代表性结构的GU。

    fe95e31646d8fa721f14126c360ecad4.png

    这种设计可以减轻非刚性零件的影响,并将网络集中在具有代表性结构的子区域。为了实现实时性,设计了一个异构网络,包含一个三维几何特征编码器和一个用于子区域变换估计的二维几何单元变换估计U-Net,用来平衡速度和精度。对于自我运动估计的投票,采用基于自注意力机制的投票模块来识别具有代表性结构的区域,并调整不同子区域的投票权重。

    1)子域表示

    采用由子流形卷积层构成的3D CNN作为几何特征编码器对子区域特征进行编码。常规三维卷积网格中的特征向量天然地与扫描中的矩形子区域块相关联。取最后一个卷积层输出的特征向量来表示不同的子区域。我们将这些规则子区域命名为几何单元GU,将特征命名为几何单元特征。

    2)GU变换估计

    识别两次扫描之间的几何单位对应关系是非常重要,但是传统方法是非常效率低下的,因此采用了一种高效的U-Net结构作为几何单元变换估计模块,从而一次性估计所有几何单元变换。首先将几何单元特征重塑为鸟瞰图特征地图,然后按照通道级别连接他们,从而维护空间拓扑并且保持刚体运动,最后将这些特征送入编码器-解码器网络用来进行几何特征变换估计。

    为了使几何单元变换估计更具有局部关联性,选择在当前的中心坐标系中估计几何单元变换。关于在当前中心坐标系的刚性全扫描的变换c20436f549b427192c5ae5958ecb9908.png和刚性扫描子域的变换5d3df17be294d61dc016837295b02a48.png的转换关系可以推导为如下:

    068af3df94b0c57f1a6252804fac2d14.png

    是几何单元帧和雷达帧之间的偏移,下图说明了这两者之间的关系

    42597aa1dcf8ad7e3d2039286480b532.png

    为了提升鲁棒性,采用分层估计的方式bc412ad376095fdba2f60c8a0f25293b.png,但是只有最精确的最终层预测c083b9b022cebb9615bcd0748516eb82.png被用在接下来的自我运动估计投票中,h代表尺度级别,Mh代表在对应的尺度级别的几何单元的数量。

    3)自我运动估计投票

    这个模块的主要目的是找到包含代表性结构的可靠几何单元,并将网络集中在这些单元上进行自我运动估计。基于之前几何单元变换估计模块中解码器的最后一个特征映射,投票模块可以预测出平移和旋转的得分aee4143ed71328400134107af52338b9.png27370998f1859a5930ae3a0c2a5e19d2.png。预测得分在所有几何单元上使用标准softmax函数进行归一化,从而作为不同几何单元的投票权重:793e0dbddd94a2e76201a086f7997371.png7cea84ccc07690f6dbd550d9540b4ef6.png。总的来说,投票阶段的运动估计可以表述为:

    79456e8e8162b23e59b61ceb3396a604.png

    投票模块能够很好地区分几何单元的置信度,下图显示了投票权重的预测

    78ca90f33e02bb30ab33b741bf5eb207.png

    2.基于三维固有匹配误差建模的自监督训练

    1)三维不确定性感知的几何一致性loss

    为了估计不同方向的测量不确定性,对于每个点,都用一个3*3的协方差矩阵进行关联从而描述它在三维空间中的不确定性。对于每个点在相邻帧之间的协方差矩阵,通过一个三维CNN进行估计。另外推导了一个损失函数用来指导协方差学习,并以不确定性感知的方式来监督自我运动估计。

    通常来说,在上述假设下,点对齐误差也是满足高斯分布的

    72be4500016c7f413813f272390c9a0a.png5099d5384ba75fc8879e93cd9889c926.png

    定义12acd3acb24eb8fa93f7cf5b6bc1137d.png

    那么点对齐误差的负对数似然可以推导为

    ee511498ed8eefc524cdbf3f3cfcfeae.png

    并且将其作为不确定性感知的几何一致性损失用来监督自我运动估计和点协方差。

    2)其他loss

    采用一个残差提升loss 并且通过ICP生成一个更精确的自我运动估计,ICP通过之前的网络生成的自我运动估计位姿进行初始化,并且只迭代2次,然后在不同尺度上对位姿进行近似,之后通过如下的近似目标函数来监督几何单元的变换:

    2189ac86f46c258f26e6629a3077995e.png

    d0b58ece41834c3dae5cf911445b6d18.pngccf97011a12f4daf63b3a7cdc50b68ba.png

    α和 β是对应的超参,对于不同的几何单元,8c36ab03490249d144572753f42bfab9.png和会动态的进行调整,从而使得网络聚焦在区域中的代表性结构。

    8abdb20a3dc14c4d482f6735bf3592e9.png

    9c57acbc6bb39a6f7f2ae5de287283fb.png

    L是之前投票环节的预测分数。

    3.不确定性感知建图

    激光雷达点云的噪声和稀疏特性限制了基于两帧的里程计的精度。传统方法通过累积之前的扫描来建图场景,并通过扫描到地图匹配进一步优化自我运动估计。但是非刚性部分和噪声测量会导致帧之间的不一致,现实生活中这是普遍存在的,所以传统方法并不总是可靠的。所以可以将上述的基于学习的点协方差估计和发现代表性结构提供的先验信息合并到建图模块中来解决这个问题。对于具有不确定性的地图更新,考虑引入点和旧地图体素的可靠性从而提高鲁棒性,具体来说,如果变换后的新点(即状态为fcbbd657d31dbec444897790da7b0d16.pngb285dfbdee483e5b3a3e3ea1ff022254.png)落在空白处,将在那里创建一个新体素,并直接用新点的状态设置其状态:64e1b3184e24b17badce28209f0832b2.png185c7ecc8cbfa9984e46bbf1dc1c49a5.png。否则直接利用Bayes过滤器进行体素更新:

    cefa2ede211b6a2d20687f35cba4fe25.png

    4.实验

    就KITTI数据集上的性能来看,效果超过了所有的经典方法和有监督及无监督方法,达到了非常明显的sota性能。

    e7b4647cba8f897116a1a9cbb27db5ab.png

    在apollo数据集上的表现来看,也达到了sota性能

    e08178160963afbce018532467ffde2a.png

    模块消融实验也能证明各个部分的有效性

    fe4b44605a86ff34692c6d0188ec085c.png

    Kitti序列10的可视化进一步证明了整体和各个模块的有效性

    7df2b723613db676fd6e0a214a44181a.png

    对于不同物体的权重影响分析,进一步说明了所提出的权重有效性

    7527a2fc8f2b4bcf69d9b404d2781ed7.png

    参数调整实验

    cd80af11fb39394aa7721ab3eae9383e.png

    关于点协方差估计的可视化,主要是说明可以更有效的提取可靠结构

    132ec02fbeaac44ccda235e0d81a2562.png

    在Tesla V100的支持下可以达到实时性能

    83a04ed45f89e42373dba410b431f9c2.png

    Conclusion

    这篇文章效果非常好,作为一个无监督的里程计达到了有监督及经典激光SLAM的精度,并且在算力足够的情况下可以达到实时的性能。里程计网络首先从高维3D特征中估计几何单元变换,然后根据被检测的代表性结构对自我运动估计进行投票。不确定性感知建图模块利用3D CNN的逐点协方差估计构建可靠的建图,并利用先前发现的代表性结构改进基于两帧的自我运动估计。代码已经开源,总的来说是一个非常好的工作。

    本文仅做学术分享,如有侵权,请联系删文。

    3D视觉工坊精品课程官网:3dcver.com

    1.面向自动驾驶领域的多传感器数据融合技术

    2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
    3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
    4.国内首个面向工业级实战的点云处理课程
    5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
    6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
    7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
    8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

    9.从零搭建一套结构光3D重建系统[理论+源码+实践]

    10.单目深度估计方法:算法梳理与代码实现

    11.自动驾驶中的深度学习模型部署实战

    12.相机模型与标定(单目+双目+鱼眼)

    13.重磅!四旋翼飞行器:算法与实战

    14.ROS2从入门到精通:理论与实战

    15.国内首个3D缺陷检测教程:理论、源码与实战

    重磅!3DCVer-学术论文写作投稿 交流群已成立

    扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

    同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

    一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

    9d9d4a11ab1429b9a7118875db472b4b.png

    ▲长按加微信群或投稿

    5db21c60a68d800a664e8fb2799f5f4d.png

    ▲长按关注公众号

    3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列三维点云系列结构光系列手眼标定相机标定激光/视觉SLAM自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近4000星球成员为创造更好的AI世界共同进步,知识星球入口:

    学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

    d56ae08227c5ab4d80fdc122ae43c7aa.png

     圈里有高质量教程资料、答疑解惑、助你高效解决问题

    觉得有用,麻烦给个赞和在看~  

  • 相关阅读:
    倾斜摄影三维模型根节点合并技术方法探讨
    i.MX6ULL驱动开发 | 32 - 手动编写一个虚拟网卡设备
    OpenAI在都柏林开设办事处,以扩大欧洲业务
    程序流程控制
    雷达水位计的工作原理及安装维护注意事项
    回访邀约的正确打开方式:回访机器人
    基于PHP的高效协同办公管理系统
    JavaScript 64 JavaScript 函数 64.2 JavaScript 函数参数
    测试维表的更新
    计算机毕业设计Java毕业生能力调查评价系统(源码+系统+mysql数据库+lw文档)
  • 原文地址:https://blog.csdn.net/Yong_Qi2015/article/details/125512760