• YOLOv5如何训练自己的数据集


    目录

    一、标注

    1.1 标注软件下载labelimg

    下载地址:mirrors / tzutalin / labelimg · GitCode

    1.2 json转txt

    1.3 xml转txt

    二、修改配置文件

    2.1 建立文件目录

    2.2 修改wzry_parameter.yaml文件

    三、开始训练

    3.1

    2.结果

    四、识别检测detect.py

    1.调参找到def parse_opt():这行,以下是我们要调参的位置

     2.结果结果在runs/detect/exp中原文链接:https://blog.csdn.net/m0_53392188/article/details/119334634


    从第三章开始就错了,我的train.py运行有问题,可能原文是v5环境,我直接再7里面弄的

    一、标注

    有两个软件可以用:labelme,需要json转txt(我用的这个)还有一个是labelimg是将xml转为txt.

    1.1 标注软件下载labelimg

    下载地址:mirrors / tzutalin / labelimg · GitCode

    下载后解压压缩包,注意路径一定不要有中文名称。

    在labeling目录下,打开cmd,然后输入:pyrcc5 -o resources.py resources.qrc

    可能出现错误:

     将resources.py文件放入libs文件夹,再输入python labelImg.py进入以下界面

     

    到此,安装成功!!!

    参考文章:labelImg安装所遇到的那些坑_与君初相识的博客-CSDN博客

    方法二:

    参考文章:

    GitHub - wkentaro/labelme: Image Polygonal Annotation with Python (polygon, rectangle, circle, line, point and image-level flag annotation).

    下载完成之后,在Anaconda Prompt里pip install pyqt5和pip install labelme

    右击,点击rectangle,即画矩形框,框选你要识别训练的东西,框选之后输入标签的名字,注意,可以框选多个作为标签。框选完一张图后保存,然后接着下一张图。保存的文件格式是.json 

    1.2 json转txt

    由于yolov5只认txt而不认json,因此还要有一个转换的过程

    在yolov5-master中创建一个.py文件,代码如下:

    name2id = {'fbb': 0} 是标签的名字,我只搞了一个标签;注意,json文件夹下只能由json,不要和你的图片放在一个文件夹下了。

    1. import json
    2. import os
    3. name2id = {'fbb': 0} # 标签名称
    4. def convert(img_size, box):
    5. dw = 1. / (img_size[0])
    6. dh = 1. / (img_size[1])
    7. x = (box[0] + box[2]) / 2.0 - 1
    8. y = (box[1] + box[3]) / 2.0 - 1
    9. w = box[2] - box[0]
    10. h = box[3] - box[1]
    11. x = x * dw
    12. w = w * dw
    13. y = y * dh
    14. h = h * dh
    15. return (x, y, w, h)
    16. def decode_json(json_floder_path, json_name):
    17. txt_name = 'C:\\MyWorkSpace\\PythonWorkSpace\\yolov7-main\\yolov7-main\\MX\\datasets\\labels\\train\\' + json_name[0:-5] + '.txt'
    18. # 存放txt的绝对路径
    19. txt_file = open(txt_name, 'w')
    20. json_path = os.path.join(json_floder_path, json_name)
    21. data=json.load(open(json_path,'r',encoding='gb2312',errors='ignore'))
    22. img_w = data['imageWidth']
    23. img_h = data['imageHeight']
    24. for i in data['shapes']:
    25. label_name = i['label']
    26. if (i['shape_type'] == 'rectangle'):
    27. x1 = int(i['points'][0][0])
    28. y1 = int(i['points'][0][1])
    29. x2 = int(i['points'][1][0])
    30. y2 = int(i['points'][1][1])
    31. bb = (x1, y1, x2, y2)
    32. bbox = convert((img_w, img_h), bb)
    33. txt_file.write(str(name2id[label_name]) + " " + " ".join([str(a) for a in bbox]) + '\n')
    34. if __name__ == "__main__":
    35. json_path = r"C:\MyWorkSpace\YOLOV7_Pack\Picture\FanBinBin"
    36. # 存放json的文件夹的绝对路径
    37. json_names = os.listdir(json_path)
    38. for json_name in json_names:
    39. decode_json(json_path, json_name)

    1.3 xml转txt

    这是别人的方法,我没试

    1. import xml.etree.ElementTree as ET
    2. import pickle
    3. import os
    4. from os import listdir, getcwd
    5. from os.path import join
    6. def convert(size, box):
    7. # size=(width, height) b=(xmin, xmax, ymin, ymax)
    8. # x_center = (xmax+xmin)/2 y_center = (ymax+ymin)/2
    9. # x = x_center / width y = y_center / height
    10. # w = (xmax-xmin) / width h = (ymax-ymin) / height
    11. x_center = (box[0] + box[1]) / 2.0
    12. y_center = (box[2] + box[3]) / 2.0
    13. x = x_center / size[0]
    14. y = y_center / size[1]
    15. w = (box[1] - box[0]) / size[0]
    16. h = (box[3] - box[2]) / size[1]
    17. # print(x, y, w, h)
    18. return (x, y, w, h)
    19. def convert_annotation(xml_files_path, save_txt_files_path, classes):
    20. xml_files = os.listdir(xml_files_path)
    21. # print(xml_files)
    22. for xml_name in xml_files:
    23. # print(xml_name)
    24. xml_file = os.path.join(xml_files_path, xml_name)
    25. out_txt_path = os.path.join(save_txt_files_path, xml_name.split('.')[0] + '.txt')
    26. out_txt_f = open(out_txt_path, 'w')
    27. tree = ET.parse(xml_file)
    28. root = tree.getroot()
    29. size = root.find('size')
    30. w = int(size.find('width').text)
    31. h = int(size.find('height').text)
    32. for obj in root.iter('object'):
    33. difficult = obj.find('difficult').text
    34. cls = obj.find('name').text
    35. # if cls not in classes or int(difficult) == 1:
    36. # continue
    37. cls_id = classes.index(cls)
    38. xmlbox = obj.find('bndbox')
    39. b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
    40. float(xmlbox.find('ymax').text))
    41. # b=(xmin, xmax, ymin, ymax)
    42. # print(w, h, b)
    43. bb = convert((w, h), b)
    44. out_txt_f.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
    45. if __name__ == "__main__":
    46. # 把forklift_pallet的voc的xml标签文件转化为yolo的txt标签文件
    47. # 1、需要转化的类别
    48. classes = ['People', 'Car', 'Bus', 'Motorcycle', 'Lamp', 'Truck']
    49. # 2、voc格式的xml标签文件路径
    50. xml_files1 = r'D:\Technology\Python_File\yolov5\M3FD\Annotation_xml'
    51. # xml_files1 = r'C:/Users/GuoQiang/Desktop/数据集/标签1'
    52. # 3、转化为yolo格式的txt标签文件存储路径
    53. save_txt_files1 = r'D:\Technology\Python_File\yolov5\M3FD\Annotation_txt'
    54. convert_annotation(xml_files1, save_txt_files1, classes)

    二、修改配置文件

    2.1 建立文件目录

     image:图片                label:标签

    train:用于训练的        test:用于测试的

    2.2 修改wzry_parameter.yaml文件

    在yolov5/data/coco128.yaml中先复制一份,粘贴到wzry中,改名为wzry_parameter.yaml

    wzry_parameter.yaml文件需要修改的参数是nc与namesnc是标签名个数,names就是标签的名字

     

    说明:

    path是绝对路径

    train是在path绝对路径条件下的训练集路径,即:wzry/datasets/images/train

    val同上,但是是验证集,这里我为了方便,让训练集和验证集是一个,也没啥大问题。

    test可不填

    关于训练集、验证集、测试集三者关系,如下:

    如何正确使用机器学习中的训练集、验证集和测试集?_nkwshuyi的博客-CSDN博客

    yolov5有4种配置,不同配置的特性如下,我这里选择yolov5x,效果较好,但是训练时间长,也比较吃显存

    yolov5/models先复制一份yolov5x.yaml至wzry,更名为wzry_model.yaml(意为模型),只将如下的nc修改为训练集种类即可

    三、开始训练

    3.1

    在train.py,找到def parse_opt(known=False)这行,这下面是我们要修改的程序部分

     

    我标注“修改处”的,是一定要修改的;其他的注释是一些较为重要的参数,对于小白而言不改也可。具体修改的地方为defalut后

    479行:是我们训练的初始权重的位置,是以.pt结尾的文件,第一次训练用别人已经训练出来的权重。可能有朋友会想,自己训练的数据集和别人训练的数据集不一样,怎么能通用呢?实际上他们是通用的,后面训练会调整过来。而如果不填已有权重,那么训练效果可能会不好;

    480行:训练模型文件,在本项目中对应wzry_model.yaml;

    481行:数据集参数文件,在本项目中对于wzry_parameter.yaml;

    482行:超参数设置,是人为设定的参数。包括学习率啥的等等,可不改;

    483行:训练轮数,决定了训练时间与训练效果。如果选择训练模型是yolov5x.yaml,那么大约200轮数值就稳定下来了(收敛);

    484行:批量处理文件数,这个要设置地小一些,否则会out of memory。这个决定了我们训练的速度;

    485行:图片大小,虽然我们训练集的图片是已经固定下来了,但是传入神经网络时可以resize大小,太大了训练时间会很长,且有可能报错,这个根据自己情况调小一些;

    487行:断续训练,如果说在训练过程中意外地中断,那么下一次可以在这里填True,会接着上一次runs/exp继续训练

    496行:GPU加速,填0是电脑默认的CUDA,前提是电脑已经安装了CUDA才能GPU加速训练,安装过程可查博客

    501行:多线程设置,越大读取数据越快,但是太大了也会报错,因此也要根据自己状况填小。
    3.2

    2.结果

    运行效果正确的应该是这个样子:

     

    结果保存在runs/train/exp中,多次训练就会有exp1、exp2、等等

    best.pt和last.pt是我们训练出来的权重文件,比较重要,用于detect.py。last是最后一次的训练结果,best是效果最好的训练结果(只是看起来,但是泛化性不一定强)。

     

    四、识别检测detect.py

    1.调参
    找到def parse_opt():这行,以下是我们要调参的位置

    217行:填我们训练好的权重文件路径

    218行:我们要检测的文件,可以是图片、视频、摄像头。填0时为打开电脑默认摄像头

    219行:数据集参数文件,同上

    220行:图片大小,同上

    221行:置信度,当检测出来的置信度大于该数值时才能显示出被检测到,就是显示出来的框框

    222行:非极大抑制,具体不赘述了,自行查阅,可不改

    224行:GPU加速,同上

     2.结果
    结果在runs/detect/exp中

    原文链接:https://blog.csdn.net/m0_53392188/article/details/119334634

  • 相关阅读:
    作为前端还在使用GIF动画吗?换一种更优雅的方案吧
    OpenHarmony鸿蒙南向开发案例:【智能窗户通风设备】
    01 NumPy介绍
    服务端渲染和客户端渲染的区别
    RoCE、IB和TCP等网络的基本知识及差异对比
    robotframework RequestsLibrary Post On Session关键字 body为json的问题
    无线通信的未来:WiFi HaLow的低功耗、超长距离革命
    Python中的super函数,你熟吗?
    在使用SpringBoot时遇到的异常总结(持续更新...)
    高可用技术
  • 原文地址:https://blog.csdn.net/qq_42475191/article/details/128120399