本系列博客包括6个专栏,分别为:《自动驾驶技术概览》、《自动驾驶汽车平台技术基础》、《自动驾驶汽车定位技术》、《自动驾驶汽车环境感知》、《自动驾驶汽车决策与控制》、《自动驾驶系统设计及应用》,笔者不是自动驾驶领域的专家,只是一个在探索自动驾驶路上的小白,此系列丛书尚未阅读完,也是边阅读边总结边思考,欢迎各位小伙伴,各位大牛们在评论区给出建议,帮笔者这个小白挑出错误,谢谢!
此专栏是关于《自动驾驶汽车环境感知》书籍的笔记.
后融合技术:每个传感器都独立地输出探测数据信息,在对每个传感器的数据信息进行处理后,再把最后的感知结果进行融合汇总。

Ulm大学自动驾驶项目提出了一种模块化的、传感器独立的融合方法,允许高效的传感器替换,通过在网络映射、定位和追踪等关键模块中使用多种传感器来确保信息冗余性。该算法主要对雷达、摄像头、激光扫描仪三种传感器的探测信息进行融合,三台IBEO LUX激光扫描仪安装在前保险杠上,摄像头安装在挡风玻璃后面,并配备了多台雷达。

上图说明:
该算法提出了一个分层模块化环境感知系统(HMEP),包含三个感知层:网格映射、定位和目标跟踪;

每个感知层都会进行传感器融合,并产生一个环境模型结果;除了传感器数据外,感知层还可以使用上一层的结果,其顺序是按照环境模型元素的抽象级提高的;不同的感知层结果可能是冗余的,甚至是矛盾的,因此组合模型将所有结果组合到一个统一的环境模型中。



Chavez-Garcia等人提出了FOP-MOC模型,将目标的分类信息作为传感器融合的关键元素,以基于证据框架的方法作为传感器融合算法,着重解决了传感器数据关联、传感器融合的问题。

低层融合在SLAM模块中执行;检测层融合了各个传感器检测到的目标列表;跟踪层融合了各个传感器模块追踪目标的轨迹列表,以生成最终结果。FOP-MOC在检测层进行传感器融合来提高感知系统的感知能力。

FOP-MOC模型,融合模型的输入信息有:雷达、摄像头、激光雷达的检测目标列表,输出结果为融合后的目标检测信息,并送入到跟踪模块中;雷达和激光雷达的探测数据主要用于移动目标检测,摄像头采集的图像主要用于目标分类,每个目标都由其位置、尺寸、类别假设的证据分布来表示,类别信息是从检测结果中的形状、相对速度和视觉外观中获得的。