• 相机内外参实践之点云投影矢量图


    目录

    概述

    涉及到的坐标变换

    深度值可视化

     3D点云的2D投影实现

    实现效果

    参考文献 


    概述

            Camer的内外参在多模态融合中主要涉及到坐标系变换,即像素坐标、相机坐标以及其他坐标系。这篇就针对点云到图像的投影与反投影做代码实践,来构建一张具有深度信息的2D图片验证。

    涉及到的坐标变换

            主要涉及三个坐标系的转换(激光坐标系、相机坐标系、像素坐标系),关系如下:

    图片引自网络,如侵联删

            其中,(u,v,1)是某点在图像像素坐标系下的坐标,(Xw,Yw,Zw)为激光坐标系下的坐标值。而中间的两个矩阵分别是相机内参、外参,最前面的系数就是从光心到实际物体的距离在沿着成像中心到光心轴线的投影距离。

    深度值可视化

             为了实现深度信息在图像上清晰的表达,随便搜了网上的代码,主要是用来将深度值离散到RGB序列上,使不同距离的物体能呈现不同的颜色,起到渐变的效果。这一块只是可视化,意会即可,具体如何可视化可根据自己需要,下方函数主要参考了文献1中的代码。

    1. def color_steps(step=255, src=(0, 255, 255), dst=(0, 0, 0)):
    2. """
    3. 主要用来产生渐变RGB值表达深度信息
    4. """
    5. color_num = step + 1
    6. from_rgb, to_rgb = src, dst
    7. colors = [(int(from_rgb[0] + (to_rgb[0] - from_rgb[0]) / step + i),
    8. int(from_rgb[1] + (to_rgb[1] - from_rgb[1]) / step + i),
    9. int(from_rgb[2] + (to_rgb[2] - from_rgb[2]) / step + i),
    10. ) for i in range(color_num)]
    11. return colors

     

     3D点云的2D投影实现

            首先要将点云从其自身传感器的坐标系下变换至相机坐标系下,在此基础上,再归一化深度投影至像素坐标系。注意我这里的过程使用的是齐次坐标变换,这个需要根据标定参数的形式、车上不同坐标系的位姿来具体分析调整更方便的矩阵运算。

    1. def project2image(image_file, pcd_file, in_matrix, rt_matrix, level=100):
    2. points_cloud = o3d.io.read_point_cloud(pcd_file)
    3. points_cloud = np.asarray(points_cloud.points_cloud)
    4. points_cloud = np.hstack((points_cloud, np.ones((points_cloud.shape[0], 1))))
    5. points_cloud = np.dot(rt_matrix, points_cloud.T)
    6. points_cloud = points_cloud[0:3, :]
    7. pixel_depth = copy.deepcopy(points_cloud[2, :])
    8. points_cloud = points_cloud / points_cloud[2, :]
    9. pixel = np.dot(in_matrix, points_cloud)
    10. image = cv2.imread(image_file)
    11. height, width = image.shape[0:2]
    12. inner = (pixel[0, :] >= 0) & (pixel[0, :] < width) & (pixel[1, :] >= 0) & (pixel[0, :] < height) & (
    13. pixel_depth >= 0)
    14. pixel = pixel[:, inner].astype(np.int32)
    15. pixel_depth = pixel_depth[inner]
    16. color_values = color_steps(step=level)
    17. min_pixel_depth, max_pixel_depth = min(pixel_depth), max(pixel_depth)
    18. for _h, _w, _d in zip(pixel[1:], pixel[0:], pixel_depth):
    19. color_id = level * (_d - min_pixel_depth) / (max_pixel_depth - min_pixel_depth)
    20. cv2.circle(image, (_w, _h), 2, color_values[int(color_id)], -1)
    21. cv2.imwrite("result.jpg", image)

     

    实现效果

            最终的实现效果如下图所示,RGB的离散做的比较随意,视觉效果没那么好。

    参考文献 

    [1]  python + gdal tif 实现渲染数据_python gdal 分级配色-CSDN博客

  • 相关阅读:
    WEB前端大作业HTML静态网页设计旅游景点区主题——三亚旅游网页设计
    时序预测 | MATLAB实现AR、ARMA、ARIMA时间序列预测模型答疑
    大型语言模型高效推理综述
    Fiddler抓手机包
    Himall商城类型帮助类将string类型转换成int类型
    PDFPlumber解析PDF文本报错:AssertionError: (‘Unhandled’, 6)
    EN 13969防水用柔性薄板.沥青防潮薄板—CE认证
    ffmpeg docker 编排
    Wayland:推动Linux桌面进入下一代图形显示时代
    51单片机学习:DAC模数转换实验
  • 原文地址:https://blog.csdn.net/qq_43439214/article/details/134346678