• 关于多传感器融合方法的总结与思考


    • 点云的各种表示
      • BEV
        • 优势
          • 能够完好地保留物体的尺度信息,不存在2D图像中物体尺度变化大的问题(近处的物体尺度较大,远处的物体尺度较小)
          • 避免了物体间相互遮挡的问题
          • large and sparse
        • 劣势
          • 不适用于检测小尺度物体(比如行人或者自行车等等)
          • 不适用于检测空间中分布较为密集的物体
          • 不适用于室内数据集的检测,因为在室内数据集中,可能存在物体相互遮挡的情况(比如椅子位于书桌下等等)(解决方式:文献[])
          • 小尺度物体的信息在网络下采样的过程中可能会发生丢失(解决方式:文献[])
          • 将点云转化为BEV会丢失物体的空间信息
      • Range View(Front View)
        • 优势
          • 3D场景下,物体最自然的表现形式
          • 反映了物体之间的遮挡关系(文献)
          • samll and dense
          • computationally efficient as it is a compact representaion of the Lidar data
        • 劣势
          • 物体之间存在遮挡
          • 物体的尺度变化不均一
    • 多传感器融合的难点
      • 传感器视角问题
        • camera获取到的信息是“小孔成像”原理,是从一个视锥出发获取到的信息,而lidar是在真实的3D世界中获取到的信息
      • 数据表征的不同
        • camera image是dense的和规则的,而idar points却是稀疏的、无序的,所以在特征层或者输入层做融合,会由于domain的不同而影响融合的有效性
    • 联系两种传感器的桥梁
      • 同一个物体在同一个时刻下的绝对位置信息是一样的,变化的只是物体在不同传感器下的表现形式(RGB或者Lidar points)。因此我们可以依据相机坐标系和Lidar坐标系的转换矩阵来建立两种不同模态数据之间的联系
    • 多传感器融合的方式
      • Early Fusion
        • 优点:简单,直接,不受限于3D检测器的类型
        • 缺点:由于待融合的两种数据来自于不同的模态,因此Early Fusion存在数据域对齐、表示形式不统一(RGB表示更为dense,而Lidar表示更为sparse)
      • Deep Fusion
        • 优点:可以在每一个阶段都考虑两种模态之间的信息交互(但并不清楚是否有这个必要???
      • Late Fusion
        • 优点
          • 不需要在输入端考虑数据同步或者对齐的问题
          • 网络最后一层输出的特征往往含有极为丰富的语义信息,因此在这个阶段做特征融合就显得直接明了了
    融合方式相关文献
    Early Fusion[5],[10],[16]
    Deep Fusion[9],[12],[13],[14]
    Late Fusion[1],[2],[3],[6],[7],[8],[11],[17]
    • 为什么现有的多传感器融合方法不如基于Lidar的方法

    参考文献
    [1] Frustum pointnets for 3d object detection from rgb-d data. (CVPR 2018)
    [2] Frustum convnet: Sliding frustums to aggregate local point-wise features for amodal. (IROS 2019)
    [3] A general pipeline for 3d detection of vehicles. (ICRA 2018)
    [4] Ipod: Intensive pointbased object detector for point cloud.
    [5] Pointpainting: Sequential fusion for 3d object detection. (CVPR 2020)
    [6] Pointfusion: Deep sensor fusion for 3d bounding box estimation. (CVPR 2018)
    [7] Multi-view 3d object detection network for autonomous driving. (CVPR 2017)
    [8] Joint 3d proposal generation and object detection from view aggregation. (IROS 2018)
    [9] Deep continuous fusion for multi-sensor 3d object detection. (ECCV 2018)
    [10] Mvx-net: Multimodal voxelnet for 3d object detection. (IROS 2019)
    [11] Multi-task multisensor fusion for 3d object detection. (ICCV 2019)
    [12] Sensor fusion for joint 3d object detection and semantic segmentation. (CVPR 2019)
    [13] Epnet: Enhancing point features with image semantics for 3d object detection. (ECCV 2020)
    [14] 3D-CVF: Generating Joint Camera and LiDAR Features Using Cross-View Spatial Feature Fusion for 3D Object Detection. (ECCV 2020)
    [15] Lasernet: An efficient probabilistic 3d object detector
    for autonomous driving. (CVPR 2019)
    [16] RangeRCNN: Towards Fast and Accurate 3D Object Detection
    with Range Image Representation.
    [17] CLOCs: Camera-LiDAR Object Candidates Fusion for 3D Object Detection.

  • 相关阅读:
    js基础笔记学习315练习1
    远程办公或常态化,“小城房”or“大城床”你会怎么选?
    阿里云有奖体验:如何使用 PolarDB-X
    Solidity智能合约开发 — 3.4-抽象智能合约和接口
    企业寄件管理方案教程
    Java 反射系列 —— 学习笔记
    java项目开发实例spring boot框架实现的理财记账财务管理系统
    每日一题 1333. 餐厅过滤器(中等)
    Redis淘汰和过期策略
    dijkstra算法+链表储存+优先队列
  • 原文地址:https://blog.csdn.net/chengsilin666/article/details/110881969