• openpilot了解与分析


    0. openpilot是什么

    首先我们需要对openpilot要有个清楚的认知,openpilot主要基于python语言编写。openpilot进程之间通过ZMQ进行通信,使用订阅者和发布者模式,进程订阅其他进程的信息,进程一系列处理,将得到的结果发布出去,让其他进程获取其处理结果。整个openpilot项目可以分为以下几个模块:定位、决策、控制这几个部分。openpilot的实现原理类似于特斯拉靠的是纯视觉的解决方案,但因为camera只有两颗(一颗用于拍摄实现的路况,另一颗用于监控驾驶员),所以openpilot支持也比较有限, 主要支持车道保持 、ACC巡航、自动辅助变道这三个功能。当然如果是需要在汽车上使用起来需要使用EON、Harness这一系列官方的设备对接完成设备的安装与使用,但是我们也需要注意的是,openpilot同样是一个开源项目,这也就导致我们可以轻松地学习里面的一些操作以及算法。即使没有特殊的硬件或汽车,openpilot的所有服务也可以在PC上正常运行。这里官方推荐使用Carla Simulator在模拟中运行openpilot。这使openpilot可以在Ubuntu机器上的运行虚拟数据。
    在这里插入图片描述

    1. 数据结构

    官方的代码还是比较清楚的,我们这里先来研究一下openpilot的整体目录
    在这里插入图片描述

    .
    ├── cereal              # 用于所有日志的消息规范和LIB
    ├── common              # openpilot中开发的类库功能
    ├── docs                # 文档
    ├── opendbc             # 显示如何解释汽车数据的文件,并以人类可读的方式对理解车辆CAN总线流量所需的信息进行编码。
    ├── panda               # CAN通信的代码
    ├── third_party         # 扩展第三方文件包
    ├── pyextra             # 扩展第三方python文件包
    └── selfdrive           # 驾驶汽车所需的代码
        ├── assets          # 用于用户界面的字体、图像和声音
        ├── athena          # 允许与应用程序app实现通信
        ├── boardd          # 守护进程与面板的通信
        ├── camerad         # 通过驱动程序从摄像头传感器捕获图像
        ├── car             # 用于读取状态和控制执行器的车辆特定代码
        ├── common          # 用于守护程序的共享C/C++代码
        ├── controls        # 规划和控制
        ├── debug           # 帮助您调试和执行汽车端口的工具
        ├── locationd       # 精确定位与车辆参数估计
        ├── logcatd         # Android logcat作为服务
        ├── loggerd         # 汽车数据记录器和上传器
        ├── modeld          # 驾驶和监控模型
        ├── proclogd        # 从proc记录信息
        ├── sensord         # IMU接口代码
        ├── test            # 单元测试、系统测试和汽车模拟器
        └── ui              # 用户界面
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25

    从这里我们可以发现基本上所有的核心操作都在selfdrive内部,当然也包括最核心的定位部分和规控部分。
    在这里插入图片描述
    上面的这些是openpilot的目录结构,核心的部分就是controls和locationd两个部分,与上文对应的是下图openpilot总体的架构图。首先作为输入部分深度学习模型位于modeld/models/supercombo.onnx文件中,该模型拥有非常鲁邦的输入输出模型。网络backbone部分,采用了Google团队的Efficientnet-B2结构。该结构采用复合缩放策略,主要特点是效果好,速度快。卷积部分下采样5次,为了减少参数量,有几个conv是采用group conv,激活函数函数采用Elu

    • 输入数据:

      • image stream:以20 Hz频率记录的连续图像帧(2565123 RGB)
      • wide image stream:以20 Hz频率记录的连续图像帧(2565123 RGB)
      • desire:命令模型发送one-hot encoded向量以执行某些操作:8
      • traffic convention:使用one-hot encoded向量告诉模型是右车道还是左车道:2
      • recurrent state:反馈到GRU中用于时间上下文的循环状态向量:512
    • 输出数据:

      • plan:5条预计规划线在33个时间步的预测平均值和标准偏差:4955 = 5 * 2 * 33 * 15(x,y,z位置;x,y,z速度;x,y,z加速度;r,p,y角度;r,p,y角速度)
      • lanelines:4条Laneline(左外、左外、右外和右外)在33个时间步长下的预测平均值和标准偏差: 528 = 4 * 2 * 33 * 2
      • laneline probabilties:4条直线中的每一条都存在的概率:8=4*2
      • road-edges:2条道路边缘(左侧和右侧)在33个时间步长下的预测平均值和标准偏差:264=2 * 2 * 33 * 2
      • leads:潜在2个引导车的假设在0,2,4,6,8,10s时的预测平均值和标准偏差:102=2*(264+3)
      • lead probabilities:从现在起,在0、2、4s时刻有一辆领先车的概率:3=1*3
      • desire state:模型认为自己正在执行8个潜在期望动作中的每一个的概率:8
      • meta:关于场景的各种元数据:80=1+35+12+3
      • pose:当前平移和旋转速率的预测平均值和标准偏差:12=2*6
      • recurrent state:反馈到GRU中用于时间上下文的循环状态向量:512

    在这里插入图片描述

    …详情请参照古月居

  • 相关阅读:
    MM32F0140 UART1 DMA Interrupt RX and TX (UART1 DMA中断接收和DMA中断发送数据)
    Hadoop搭建————搭建前的准备
    猿创征文|2022年快过完了,是时候总结一下那些优秀的 React 组件库
    虹科示波器 | 汽车免拆检修 | 2015款奔驰G63AMG车发动机偶尔自动熄火
    【PCIe Byte Enable】
    CSS 选择器的常见用法
    vscode+phpstudy断点调试php程序
    断点是什么,断点有哪几种类型?
    自建应用-企业微信-侧边栏开发配置
    TOOLS_Pandas根据日期列进行分组统计及绘图的使用示例
  • 原文地址:https://blog.csdn.net/lovely_yoshino/article/details/124798489