• 仪酷LabVIEW OD实战(3)——Object Detection+onnx工具包快速实现yolo目标检测


    ‍‍🏡博客主页: virobotics(仪酷智能):LabVIEW深度学习、人工智能博主
    🎄所属专栏:『仪酷LabVIEW目标检测工具包实战』
    📑上期文章:『仪酷LabVIEW OD实战(2)——Object Detection VI函数详细介绍』
    🍻本文由virobotics(仪酷智能)原创首发

    🥳欢迎大家关注✌点赞👍收藏⭐留言📝订阅专栏

    一、前言

    Hello,大家好,我是virobotics(仪酷智能),一个深耕于LabVIEW和人工智能领域的开发工程师。

    上一篇文章给大家介绍了仪酷Object Detection工具包的VI函数,今天我们给大家详细介绍一下如何使用这些VI配合onnx工具包快速搭建yolo目标检测项目。


    二、环境搭建

    2.1 部署本项目时所用环境

    2.2 LabVIEW工具包下载及安装

    • AI视觉工具包下载与安装参考:
      https://blog.csdn.net/virobotics/article/details/123656523
    • onnx工具包下载与安装参考:
      https://blog.csdn.net/virobotics/article/details/124998746
    • 仪酷Object Detection工具包下载与安装参考:
      https://blog.csdn.net/virobotics/article/details/132529219

    三、项目实战

    3.1 快速打开范例

    1. 双击打开LabVIEW,在“Help”选项下找到“Find Examples…”单击打开。
      在这里插入图片描述

    2. 打开范例查找器,选择Directory Structure–VIRobotics AI Vision–Object Detection即可获取所有的范例。不同模型的范例,放到了不同文件夹下。
      在这里插入图片描述

    3. 以YOLOv5相关范例为例,双击“yolov5”范例文件夹,双击想要运行的vi(若您电脑当前无法使用相机,建议加载名字含有“imgs”的vi范例)。

      (注意:范例VI名字中带有onnx表示该范例使用onnx工具包实现推理;范例VI名字中带有openvino表示该范例使用OpenVINO工具包实现推理;范例VI名字中带有trt表示该范例使用TensorRT工具包实现推理;您可根据您目前已经安装的工具包来打开对应范例。范例VI中带有nivision表示使用NI VISION方式进行图像采集并实现推理,如您预计使用官方NI VISION来采集图像,则可使用此范例。不带有nivision则表示使用仪酷工具包进行图像采集或图像读取来实现推理。)

    4. 若您电脑没有安装NI VISION工具包,则在打开范例过程中会出现如下图所示弹窗,一直点击“Ignore Item”即可。
      在这里插入图片描述

    3.2 加载yolo模型实现推理

    范例VI名字中带有onnx表示该范例使用onnx工具包实现推理

    3.2.1 实时检测推理

    1. 以yolov5为例,快速打开范例,双击yolov5文件夹,双击yolov5_onnx.vi,会直接打开前面板,可以选择切换加速方式(如果您安装的是GPU版的ONNX工具包且电脑有英伟达独立显卡,则可以在运行范例前type控件选择CUDA,实现更快速的推理。)点击运行,程序会自动加载默认yolov5模型及分类文件,开启摄像头实现目标检测。
      在这里插入图片描述
    2. 如下两幅图分别为使用cpu加速和使用gpu加速,实时物体识别画面,若需要停止本次检测,点击“STOP”按钮控件即可。
      CPU加速实现目标检测
      GPU加速实现目标检测
    3. 如果想要加载自己训练好的模型,则可按照如下步骤进行设置
      ①更换加速类型type(如果您安装的是GPU版的ONNX工具包且电脑有英伟达独立显卡,则可以在运行范例前type控件选择CUDA,实现更快速的推理);
      ②加载自己已经训练好的模型model_path(默认为yolov5s.onnx);
      ③加载模型对应的类别文件class_names_path(默认加载官方模型类别文件);
      ④全部设置完毕,点击运行,即可实现实时检测。
      ⑤需要停止本次检测,点击“STOP”按钮控件即可
      在这里插入图片描述
      程序框图如下图所示:
      在这里插入图片描述

    3.2.2 实现图片集推理检测

    1. 快速打开范例,如打开yolov5_onnx_imgs.vi,界面如下,依次完成:
      ①更换加速类型type(如果您安装的是GPU版的ONNX工具包且电脑有英伟达独立显卡,则可以在运行范例前type控件选择CUDA,实现更快速的推理);
      ②点击运行,启动程序,将会加载默认图片集;
      ③单击界面右侧imgs控件中需要进行检测的图片,即可实现图片检测;
      在这里插入图片描述
      ④如下图所示为检测结果,需要停止本次检测,点击“STOP”按钮控件即可。

    在这里插入图片描述
    3. 如果想要加载自己训练好的模型,则可按照如下步骤进行设置
    ①更换加速类型type(如果您安装的是GPU版的ONNX工具包且电脑有英伟达独立显卡,则可以在运行范例前type控件选择CUDA,实现更快速的推理);
    ②加载自己已经训练好的模型model_path(默认为yolov5s.onnx);
    ③加载模型对应的类别文件class_names_path(默认加载官方模型类别文件);
    ④全部设置完毕,点击运行,启动程序;
    在这里插入图片描述

    ⑤选择需要检测的图片集,单击界面右侧imgs控件中需要进行检测的图片,即可实现图片检测;需要停止本次检测,点击“STOP”按钮控件即可
    在这里插入图片描述

    💡一些小技巧

    • 我们可以通过设置置信度阈值confThreashold(默认为0.3)和NMS阈值nms_threshold(默认为0.5)来控制检测结果,较高的置信度阈值和较低的NMS阈值可以提高结果的准确性,但可能会导致漏检和冗余检测。较低的置信度阈值和较高的NMS阈值可以增加检测结果,但可能会引入更多的误检和重复检测。因此,可以需要根据实际场景和性能要求调整这些阈值,即如下图所示中的Detect_1_Batch.vi中可进行参数设置

    • 可以设置Detect_1_Batch.vi中的fontscale,即字体缩放因子,用于调整文本或字体的大小比例,该参数是一个浮点数值,表示相对于原始字体大小的缩放比例。具体而言,当fontscale的值大于1时,文本将变大;当fontscale的值小于1时,文本将变小。默认为0.5。

    在这里插入图片描述

    四、工具包获取方式

    如需该插件工具包,可查看:https://blog.csdn.net/virobotics/article/details/132529219


    总结

    以上就是今天要给大家分享的内容,希望对大家有用。如有笔误,还请各位及时指正。下一篇我们将会给大家介绍Object Detection+openvino工具包快速实现yolo目标检测,欢迎大家关注博主。我是virobotics(仪酷智能),我们下篇文章见~

    如您想要探讨更多关于LabVIEW与人工智能技术,欢迎加入我们的技术交流群:705637299。进群请备注:CSDN

    如果文章对你有帮助,欢迎✌关注、👍点赞、✌收藏、👍订阅专栏

    系列文章链接:

    仪酷LabVIEW OD实战(1)——目标检测Object Detection工具包的安装
    仪酷LabVIEW OD实战(2)——Object Detection VI函数详细介绍

    推荐阅读

    LabVIEW图形化的AI视觉开发平台(非NI Vision),大幅降低人工智能开发门槛
    LabVIEW图形化的AI视觉开发平台(非NI Vision)VI简介
    LabVIEW AI视觉工具包OpenCV Mat基本用法和属性
    手把手教你使用LabVIEW人工智能视觉工具包快速实现图像读取与采集

    👇技术交流 · 一起学习 · 咨询分享,请联系👇

  • 相关阅读:
    Keras中stateful的正确理解
    微信小程序新能源汽车信息安全服务平台设计与实现
    Maven之POM介绍
    Buuctf [极客大挑战 2019]BuyFlag1 WP解析
    [附源码]计算机毕业设计springboot演唱会门票售卖系统
    LabVIEW通过网络传输数据
    ubuntu静态ip地址设置
    结构体定义struct和typedef struct的区别(重新整理版)
    手把手教你实现跳表!
    解决:AttributeError: ‘WebDriver‘ object has no attribute ‘find_element_by_id‘
  • 原文地址:https://blog.csdn.net/virobotics/article/details/132744674