• 环境感知——自动驾驶模型训练(菜鸟版本)


    简述

    本文用仿真工具录制下训练数据后,存到本地CSV文件中,本文仅用方向盘转角速度进行训练。

    代码示例采用Jupyter编码,如在其他编辑器运行问题,请使用Jupyter.

    CSV文件中存储的数据如下:

    • "center","left","right","steering","throtlle","reverse","speed"
    • 中间摄像头图片路径,左侧摄像头图片路径,右侧摄像头图片路径,方向盘角度,油门,速度

    模型训练过程

    1. 问题定义

      • 明确待解决的任务类型(如分类、回归、聚类、推荐等)以及目标业务场景。
      • 设定具体目标,如提高预测准确性、降低误差、提升用户体验等。
      • 定义评估指标(如精度、召回率、AUC、RMSE等),用于量化模型性能。
    2. 数据收集

      • 确定所需数据源,包括内部数据库、公开数据集、API接口、用户行为记录等。
      • 收集与问题相关且质量可靠的数据,并将其存储在合适的数据结构(如数据库、数据表、数据帧等)中。
    3. 数据预处理

      • 数据清洗:去除重复项、修复格式错误、处理无效或不一致的数据。
      • 缺失值处理:通过填充(如使用平均值、中位数、众数、插值等方法)、删除含有缺失值的行/列或使用专门的缺失值插补技术来处理缺失数据。
      • 异常值检测与处理:识别并可能移除或修正数据集中偏离正常范围的观测值,可采用箱线图法、Z-score、IQR等方法。
      • 数据标准化/归一化:对数值特征进行尺度变换,如min-max scaling、z-score标准化等,以便不同特征间具有可比性。
      • 数据转换:根据需要进行特征编码(如独热编码、标签编码等)、特征提取(如PCA、LDA等)、特征交互(如多项式特征)等操作。
      • 数据采样:如果数据不平衡,可能需要进行过采样、欠采样或生成合成样本等以平衡类别分布。
    4. 特征选择与工程

      • 根据领域知识和数据分析,选择与目标变量最相关的特征。
      • 创建新特征(衍生变量)以增强模型表现,可能涉及特征组合、统计计算、时间序列分析等。
    5. 模型选择

      • 根据问题特性、数据规模、计算资源、解释性需求等因素,选择合适的机器学习算法或深度学习架构。
      • 常见模型包括线性回归、逻辑回归、决策树、随机森林、支持向量机、神经网络、AdaBoost、XGBoost、LightGBM等。
    6. 模型训练

      • 将预处理后的数据集划分为训练集、验证集(有时还包括测试集),通常采用交叉验证以更稳健地估计模型性能。
      • 使用训练集对选定的模型进行参数调整和训练。这通常涉及使用优化算法(如梯度下降、Adam、L-BFGS等)迭代更新模型参数,以最小化预定的损失函数(如均方误差、交叉熵等)。
    7. 模型评估

      • 在独立的验证集(或交叉验证折叠)上评估训练好的模型,计算预定义的评价指标(如精度、召回率、F1分数、AUC-ROC曲线、MAE、MSE等)。
      • 可视化关键指标、绘制学习曲线、计算特征重要性等,以深入理解模型性能和特征影响。
    8. 模型优化

      • 调整模型超参数,通过网格搜索、随机搜索、贝叶斯优化等方法找到最优超参数组合。
      • 针对性能瓶颈尝试不同的正则化策略(如L1、L2正则化、dropout、early stopping等)减少过拟合风险。
      • 如果适用,尝试集成学习(如bagging、boosting、stacking等)提高模型泛化能力。
    9. 模型验证与部署

      • 使用独立的测试集(如果有的话)对最终选定模型进行验证,确认其在未见过数据上的表现。
      • 将模型封装成API、嵌入应用程序或作为批处理作业集成到生产环境。
      • 实施监控系统,持续跟踪模型在实际应用中的性能,为未来模型更新或重新训练提供反馈。
    10. 后期维护与更新

      • 定期评估模型在新数据上的表现,必要时重新训练或调整模型以适应数据变化。
      • 跟踪领域知识和算法进展,适时引入新技术或改进现有模型。

    数据分析与预处理

     代码示例:

    1. import numpy as np
    2. import pandas as pd
    3. # 读取数据
    4. data = pd.read_csv('driving_log.csv',names=["center","left","right","steering","throtle","reverse","speed"])
    5. # 数据展示
    6. # 把方向盘的转角数据分成20份
    7. counts,angle = np.histogram(data["steering"],20)
    8. # angle有21个数据,把两次数据加在一起再求个平均,就只有20份数据了,这是中心点坐标
    9. center = (angle[1:]+angle[:-1])/2
    10. import matplotlib.pyplot as plt
    11. # 柱状图展示自动驾驶数据分布情况:可以看出来角度为0直行的数据过多,需要进行剪裁
    12. # plt.bar(center,counts,width=0.1)
    13. # 数据清洗:根据数据的分布规律,把结果一直一些特别多的训练数据给删除掉
    14. # 过滤出直行的数据
    15. # 记录所有的直行数据的位置信息
    16. li = []
    17. for i in range(0,len(data["steering"])):
    18. if data["steering"][i] == 0:
    19. li.append(i)
    20. # print(len(li))
    21. # 画线,从中间切一刀
    22. # plt.plot((-1,1),(300,300))
    23. # plt.bar(center,counts,width=0.1)
    24. # 洗牌操作,只保留300 条记录
    25. np.random.shuffle(li)
    26. rm_list = li[300:]
    27. # np.drop 丢弃某些数据, 参数inplace=True: 在原来的数据集上操作
    28. data.drop(rm_list, inplace=True)
    29. counts,angle = np.histogram(data["steering"],20)
    30. # angle有21个数据,把两次数据加在一起再求个平均,就只有20份数据了,这是中心点坐标
    31. center = (angle[1:]+angle[:-1])/2
    32. plt.bar(center,counts,width=0.1)
    33. info = data[["center","steering"]]
    34. info.to_csv("info.csv")

    数据集分割与准备

    1. from sklearn.model_selection import train_test_split
    2. import cv2
    3. # 返回值:训练集、测试集、训练集结果、测试集结果
    4. X_train,X_test,Y_train,Y_test = train_test_split(info["center"],info["steering"],test_size=0.2,random_state=23)
    5. print(len(X_train),len(Y_test))
    6. # 绘制转角数据直方图,用于查看数据集分布情况
    7. plt.subplot(121)# 121:1行两列第一个
    8. plt.hist(Y_train,20,width=0.1)
    9. plt.subplot(122)# 121:1行两列第2个
    10. plt.hist(Y_test,20,width=0.1)
    11. # 显示训练集中索引为2的图片
    12. img = plt.imread(X_train.iloc[2])
    13. # plt.imshow(img)
    14. # 图片预处理:图片
    15. # 去掉引擎盖部分和天空部分,仅保留训练相关部分
    16. img = img[60:135,:,:]
    17. # 高斯模糊去除燥点
    18. img = cv2.GaussianBlur(img,(3,3))
    19. # 按照论文中,放入的图片尺寸为宽200*高66,YUV格式,YUV 格式很适合做图形分割与分类
    20. img = cv2.resize(img,(200,66))
    21. img = cv2.cvtColor(img,cv2.COLOR_RGB2YUV)
    22. # 图片预处理函数:宽高、颜色模式调整
    23. def data_preprocessing(img_path):
    24. img = cv2.imread(img_path)
    25. img = img[60:135,:,:]
    26. img = cv2.GaussianBlur(img,(3,3),1)
    27. img = cv2.resize(img,(200,66))
    28. img = cv2.cvtColor(img,cv2.COLOR_RGB2YUV)
    29. return img
    30. # 绘图后对比原图和预处理后的图
    31. random_index = np.random.randint(len(X_train))
    32. src_img = plt.imread(X_train.iloc[random_index])
    33. dst_img = data_preprocessing(X_train.iloc[random_indexa])
    34. #
    35. plt.subplot(121)
    36. plt.imshow(src_img)
    37. plt.subplot(122)
    38. plt.imshow(dst_img)
    39. plt.show()
    40. # 准备卷积神经网络CNN需要的训练数据
    41. train_img = []
    42. for i in range(0,len(X_train)):
    43. img = data_preprocessing(X_train.iloc[i])
    44. # 归一化操作
    45. img = img/255.0
    46. train_img.append(img)
    47. X_train_imgs = np.array(train_img)
    48. # 准备卷积神经网络CNN需要的训练数据
    49. test_img = []
    50. for i in range(0,len(X_test)):
    51. img = data_preprocessing(X_test.iloc[i])
    52. # 归一化操作
    53. img = img/255.0
    54. test_img.append(img)
    55. X_test_imgs = np.array(test_img)
    56. y_train = y_train.to_numpy()
    57. y_test = y_test.to_numpy()

    模型构建与训练

    第一次训练

    1. # 模型输出结果是-1 到 1的角度值,所以是回归问题。
    2. # 回归问题用误差函数MSE,分类问题用的Sigmoid
    3. import tensorflow as tf
    4. # 线性模型库
    5. model = tf.keras.Sequential()
    6. # 卷积层
    7. model.add(tf.keras.layers.Conv2D((24,(5,5),strides=(2,2),input_shape=(66,200),activation="relu"))
    8. model.add(tf.keras.layers.Conv2D((36,(5,5),strides=(2,2),activation="relu"))
    9. model.add(tf.keras.layers.Conv2D((48,(5,5),strides=(2,2),activation="relu"))
    10. model.add(tf.keras.layers.Conv2D((64,(3,3),activation="relu"))
    11. model.add(tf.keras.layers.Conv2D((64,(3,3),activation="relu"))
    12. model.add(tf.keras.layers.Flatten())
    13. model.add(tf.keras.layers.Dense(1164,activation="relu"))
    14. model.add(tf.keras.layers.Dense(100,activation="relu"))
    15. model.add(tf.keras.layers.Dense(50,activation="relu"))
    16. model.add(tf.keras.layers.Dense(10,activation="relu"))
    17. model.add(tf.keras.layers.Dense(1)) # 方向盘回归问题
    18. model.summary()
    19. # 模型编译
    20. model.compile(optimizer="rmsprop",loss="mse")
    21. # 模型训练
    22. history = model.fit(X_train_img,y_train,epochs=50,batch_size=128,validation_data=(X_test_img,y_test))
    23. # 展示训练集与验证集的损失比较
    24. plt.plot(history.history["loss"])
    25. plt.plot(history.history["val_loss"])
    26. plt.legend(["train","test"])
    27. plt.show()

    模型参数调整

    1. # 发现测试集表现不稳定,经常有尖锐的差距,说明模型训练过程中泛化能力差,可以增加随机取消神经元工作
    2. # relu用于在数据集不大但模型参数很多,可能出现梯度消失模型不收敛的情况,需要换其他的激活函数
    3. # 线性模型库
    4. model = tf.keras.Sequential()
    5. # 卷积层
    6. model.add(tf.keras.layers.Conv2D((24,(5,5),strides=(2,2),input_shape=(66,200),activation="elu"))
    7. # Dropout增加泛化能力,去除尖锐部分,减少训练过程中抖动情况
    8. model.add(tf.keras.layers.Dropout(0.5))
    9. model.add(tf.keras.layers.Conv2D((36,(5,5),strides=(2,2),activation="elu"))
    10. model.add(tf.keras.layers.Conv2D((48,(5,5),strides=(2,2),activation="elu"))
    11. # Dropout增加泛化能力,去除尖锐部分,减少训练过程中抖动情况
    12. model.add(tf.keras.layers.Dropout(0.2))
    13. model.add(tf.keras.layers.Conv2D((64,(3,3),activation="elu"))
    14. model.add(tf.keras.layers.Conv2D((64,(3,3),activation="elu"))
    15. model.add(tf.keras.layers.Flatten())
    16. model.add(tf.keras.layers.Dense(1164,activation="elu"))
    17. model.add(tf.keras.layers.Dense(100,activation="elu"))
    18. model.add(tf.keras.layers.Dense(50,activation="elu"))
    19. # Dropout增加泛化能力,去除尖锐部分,减少训练过程中抖动情况
    20. model.add(tf.keras.layers.Dropout(0.2))
    21. model.add(tf.keras.layers.Dense(10,activation="elu"))
    22. model.add(tf.keras.layers.Dense(1)) # 方向盘回归问题
    23. model.summary()
    24. # 模型编译
    25. model.compile(optimizer="rmsprop",loss="mse")
    26. # 模型训练
    27. history = model.fit(X_train_img,y_train,epochs=50,batch_size=128,validation_data=(X_test_img,y_test))
    28. model.save("model.h5")
    29. # 展示训练集与验证集的损失比较
    30. plt.plot(history.history["loss"])
    31. plt.plot(history.history["val_loss"])
    32. plt.legend(["train","test"])
    33. plt.show()

    模型测试 

    1. test_index = np.random.randint(len(X_test_imgs))
    2. models = tf.keras.models.load_model("model.h5")
    3. result = models.predict(X_test_imgs[test_index].reshape(1,66,200,3))
    4. predict_result = result[0][0]

  • 相关阅读:
    简单理解微服务限流、降级、熔断
    【杂记-浅谈以太网IP数据帧】
    C++&QT day11
    JAVA安全之Shrio550-721漏洞原理及复现
    教你遇到vcomp120.dll无法继续执行代码的解决方法
    Gradle之属性Properties
    Cesium Vue(六)— 材质(Material)
    代码优化小技巧-使用enum统一返回code码
    【LeetCode每日一题】——404.左叶子之和
    Rust-Sqlx极简教程
  • 原文地址:https://blog.csdn.net/weixin_46157873/article/details/137916343