参考博客:
Yolov5模型训练——colab下yolov5的数据集训练
网址:谷歌网盘(科学上网0.0)
新建一个文件夹:colab
在文件夹中新建一个Google Colaboratory,类似一个jyputer实时脚本。
如果点击新建,如果发现没有Google Colaboratory。则点击右侧的加号,搜索并添加应用拓展。安装完成后,刷新界面就可以看到啦。
进入Google Colaboratory。点击修改–>笔记本设置–>改成GPU并保存。
查看Google Colaboratory的GPU参数。
!nvidia-smi
import os
from google.colab import drive
drive.mount('/content/drive')
path = "/content/drive/My Drive"
os.chdir(path)
os.listdir(path)
挂载后点击右侧文件,可以看到你的谷歌网盘。
%cd /content/drive/MyDrive/colab
!git clone https://github.com/ultralytics/yolov5.git
直接进入新建的文件夹,然后从云端直接下载yolov5源码。当然,你也可以直接本地上传。
!cd /content/drive/MyDrive/colab/yolov5 && pip install -r requirements.txt
!cd /content/drive/MyDrive/colab/yolov5 && python train.py
注意设置自己的路径设置是否正确,自行修改上述代码。
这一步是最重要的。因为我的GPU实在是太垃圾了,实现在线部署就可以免费嫖一下。
这里我导入的是一个口罩识别数据集。
按照之前的步骤新建一个mytest文件夹。
import os
from google.colab import drive
drive.mount("/content/drive")
%cd /content/drive/MyDrive/mytest
!git clone https://github.com/ultralytics/yolov5.git
!cd /content/drive/MyDrive/mytest/yolov5 && pip install -r requirements.txt
数据集的处理见:【数据集的制作】VOC2007数据集格式的转换(voc2yolo)与划分
数据集格式如下:
# ├── yolov5
# └── Mask
# └── Mask_data
# └── images
# └── labels
修改这两个yaml文件。
①models–>yolov5s_mask.yaml–>修改:nc: 2 # number of classes
②data–>mask.yaml–>仿照coco128进行修改 (我用其他格式尝试了,发现只有这样可以找到文件)
path: ../Mask/Mask_data
train: images
val: images
nc: 2
names: ['mask', 'no-mask']
修改train中代码
parser.add_argument('--cfg', type=str, default='models/yolov5s_mask.yaml', help='model.yaml path')
parser.add_argument('--data', type=str, default=ROOT / 'data/mask.yaml', help='dataset.yaml path')
parser.add_argument('--epochs', type=int, default=50, help='total training epochs')
在ipynb中输入
!cd /content/drive/MyDrive/mytest/yolov5 && python train.py
在run文件夹中就可以看到我们训练生成的各种指标了。
def run(
weights=ROOT / '/content/drive/MyDrive/mytest/yolov5/runs/train/exp8/weights/best.pt', # model.pt path(s)
source=ROOT / '/content/drive/MyDrive/mytest/Mask/Mask_data/detect', # file/dir/URL/glob, 0 for webcam
data=ROOT / 'data/mask.yaml', # dataset.yaml path
parser.add_argument('--weights', nargs='+', type=str, default=ROOT / '/content/drive/MyDrive/mytest/yolov5/runs/train/exp8/weights/best.pt', help='model path(s)')
parser.add_argument('--source', type=str, default=ROOT / '/content/drive/MyDrive/mytest/Mask/Mask_data/detect', help='file/dir/URL/glob, 0 for webcam')
parser.add_argument('--data', type=str, default=ROOT / 'data/mask.yaml', help='(optional) dataset.yaml path')
ipynb中为:
!cd /content/drive/MyDrive/mytest/yolov5 && python detect.py
——————————————————————————————————————————————输出:
detect: weights=/content/drive/MyDrive/mytest/yolov5/runs/train/exp8/weights/best.pt, source=/content/drive/MyDrive/mytest/Mask/Mask_data/detect, data=data/mask.yaml, imgsz=[640, 640], conf_thres=0.25, iou_thres=0.45, max_det=1000, device=, view_img=False, save_txt=False, save_conf=False, save_crop=False, nosave=False, classes=None, agnostic_nms=False, augment=False, visualize=False, update=False, project=runs/detect, name=exp, exist_ok=False, line_thickness=1, hide_labels=False, hide_conf=False, half=False, dnn=False, vid_stride=1
YOLOv5 🚀 v6.2-94-g1aea74c Python-3.7.13 torch-1.12.1+cu113 CUDA:0 (Tesla T4, 15110MiB)
Fusing layers...
YOLOv5s_mask summary: 213 layers, 7015519 parameters, 0 gradients, 15.8 GFLOPs
image 1/1 /content/drive/MyDrive/mytest/Mask/Mask_data/detect/test1.png: 448x640 5 masks, 1 no-mask, 13.1ms
Speed: 0.5ms pre-process, 13.1ms inference, 1.5ms NMS per image at shape (1, 3, 640, 640)
Results saved to runs/detect/exp3
输出结果:5 masks, 1 no-mask。可以从图看到效果并不好。
挖个坑:后续会继续学习如何改进网络。