• 关于多传感器融合方法的总结与思考


    • 点云的各种表示
      • BEV
        • 优势
          • 能够完好地保留物体的尺度信息,不存在2D图像中物体尺度变化大的问题(近处的物体尺度较大,远处的物体尺度较小)
          • 避免了物体间相互遮挡的问题
          • large and sparse
        • 劣势
          • 不适用于检测小尺度物体(比如行人或者自行车等等)
          • 不适用于检测空间中分布较为密集的物体
          • 不适用于室内数据集的检测,因为在室内数据集中,可能存在物体相互遮挡的情况(比如椅子位于书桌下等等)(解决方式:文献[])
          • 小尺度物体的信息在网络下采样的过程中可能会发生丢失(解决方式:文献[])
          • 将点云转化为BEV会丢失物体的空间信息
      • Range View(Front View)
        • 优势
          • 3D场景下,物体最自然的表现形式
          • 反映了物体之间的遮挡关系(文献)
          • samll and dense
          • computationally efficient as it is a compact representaion of the Lidar data
        • 劣势
          • 物体之间存在遮挡
          • 物体的尺度变化不均一
    • 多传感器融合的难点
      • 传感器视角问题
        • camera获取到的信息是“小孔成像”原理,是从一个视锥出发获取到的信息,而lidar是在真实的3D世界中获取到的信息
      • 数据表征的不同
        • camera image是dense的和规则的,而idar points却是稀疏的、无序的,所以在特征层或者输入层做融合,会由于domain的不同而影响融合的有效性
    • 联系两种传感器的桥梁
      • 同一个物体在同一个时刻下的绝对位置信息是一样的,变化的只是物体在不同传感器下的表现形式(RGB或者Lidar points)。因此我们可以依据相机坐标系和Lidar坐标系的转换矩阵来建立两种不同模态数据之间的联系
    • 多传感器融合的方式
      • Early Fusion
        • 优点:简单,直接,不受限于3D检测器的类型
        • 缺点:由于待融合的两种数据来自于不同的模态,因此Early Fusion存在数据域对齐、表示形式不统一(RGB表示更为dense,而Lidar表示更为sparse)
      • Deep Fusion
        • 优点:可以在每一个阶段都考虑两种模态之间的信息交互(但并不清楚是否有这个必要???
      • Late Fusion
        • 优点
          • 不需要在输入端考虑数据同步或者对齐的问题
          • 网络最后一层输出的特征往往含有极为丰富的语义信息,因此在这个阶段做特征融合就显得直接明了了
    融合方式相关文献
    Early Fusion[5],[10],[16]
    Deep Fusion[9],[12],[13],[14]
    Late Fusion[1],[2],[3],[6],[7],[8],[11],[17]
    • 为什么现有的多传感器融合方法不如基于Lidar的方法

    参考文献
    [1] Frustum pointnets for 3d object detection from rgb-d data. (CVPR 2018)
    [2] Frustum convnet: Sliding frustums to aggregate local point-wise features for amodal. (IROS 2019)
    [3] A general pipeline for 3d detection of vehicles. (ICRA 2018)
    [4] Ipod: Intensive pointbased object detector for point cloud.
    [5] Pointpainting: Sequential fusion for 3d object detection. (CVPR 2020)
    [6] Pointfusion: Deep sensor fusion for 3d bounding box estimation. (CVPR 2018)
    [7] Multi-view 3d object detection network for autonomous driving. (CVPR 2017)
    [8] Joint 3d proposal generation and object detection from view aggregation. (IROS 2018)
    [9] Deep continuous fusion for multi-sensor 3d object detection. (ECCV 2018)
    [10] Mvx-net: Multimodal voxelnet for 3d object detection. (IROS 2019)
    [11] Multi-task multisensor fusion for 3d object detection. (ICCV 2019)
    [12] Sensor fusion for joint 3d object detection and semantic segmentation. (CVPR 2019)
    [13] Epnet: Enhancing point features with image semantics for 3d object detection. (ECCV 2020)
    [14] 3D-CVF: Generating Joint Camera and LiDAR Features Using Cross-View Spatial Feature Fusion for 3D Object Detection. (ECCV 2020)
    [15] Lasernet: An efficient probabilistic 3d object detector
    for autonomous driving. (CVPR 2019)
    [16] RangeRCNN: Towards Fast and Accurate 3D Object Detection
    with Range Image Representation.
    [17] CLOCs: Camera-LiDAR Object Candidates Fusion for 3D Object Detection.

  • 相关阅读:
    通过WSL在阿里云上部署Django项目MySQL
    PyQt5_股票最近均线状态工具
    华为机试 - 连接器问题
    ElasticSearch(六):ES 的核心概念以及什么是倒排索引
    Docker-介绍及生命周期
    P21 元组 列表 P22 列表 list P23 多维列表
    四化智造MES(WEB)和金蝶云星空接口打通对接实战
    毕业从事弱电3个月,我为什么会选择转行网络工程师
    物联网赋能:WIFI HaLow在无线连接中的优势
    MyBatis下的CRUD
  • 原文地址:https://blog.csdn.net/chengsilin666/article/details/110881969