0. 虚拟环境准备使用1. 下载YOLO52. 安装环境依赖2.1 使用CPU版本2.2 使用GPU版本(强烈建议使用)2.2.1 检查GPU2.2 安装依赖3. 运行官方例子测试4. 自定义训练集4.1 数据标注4.1.1 安装4.1.2 使用labelImg4.2 建立对应文件夹4.3 新建yaml文件4.4 运行训练4.5 运行结果4.6 使用训练好的模型测试4.7 图形化界面验证4.8 查看指标5. 推理测试5.1 图像推理5.2 目录推理5.3 视频推理5.4 网络摄像头推理5.4 HTTP流推理5.4 rtsp流推理Demo思路手机案例scrcpy简介6. 报错原因解决方法7. 工具7.1 XML转YOLO格式
0. 虚拟环境准备
使用
- 查看现有的虚拟环境
- 创建虚拟环境
PS D:\Cumtb_Code> conda create --prefix=D:\Cumtb_Code\yolo5demo python=3.8
- 启动
# 切换到CMD下使用 PS D:\Cumtb_Code> cmd # 启动虚拟环境 D:\Cumtb_Code>conda activate D:\Cumtb_Code\yolo5demo # 查看虚拟环境下的pip库 (D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code>pip list # 退出 (D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code>conda deactivate
1. 下载YOLO5
- Clone项目
- 解压项目
- data_gen.py,转换vico格式数据
- detect.py做可视化
- export和hubconf没用
- licence声明版权
- requirement:项目运行需要安装的依赖包,在代码运行前就先通过cmd安装好
- train.py:训练用到的
- val.py:验证用到的
- window.py:运行可视化界面用到的
- 将项目移动到虚拟环境的目录(我这里创建的是yolo5demo)
2. 安装环境依赖
# 1.切换到虚拟环境目录 D:\Cumtb_Code>cd yolo5demo # 2.启动虚拟环境 D:\Cumtb_Code\yolo5demo>conda activate D:\Cumtb_Code\yolo5demo # 3.切换到yolov5-master项目目录 (D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo>cd yolov5-master
2.1 使用CPU版本
官方给出的要求是:
python>=3.7
、PyTorch>=1.5
,如果使用CPU的话,直接安装依赖:# 4.安装相应的环境依赖(建议使用清华源安装) pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -U -r requirements.txt
2.2 使用GPU版本(强烈建议使用)
CPU版本训练太慢了🤣🤣🤣🤣
2.2.1 检查GPU
查看本机GPU
(D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo\yolov5-master>nvidia-smi Tue Jun 21 22:11:38 2022 +-----------------------------------------------------------------------------+ | NVIDIA-SMI 512.15 Driver Version: 512.15 CUDA Version: 11.6 | |-------------------------------+----------------------+----------------------+ | GPU Name TCC/WDDM | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |===============================+======================+======================| | 0 Quadro RTX 4000 WDDM | 00000000:73:00.0 On | N/A | | 30% 43C P8 13W / 125W | 2097MiB / 8192MiB | 10% Default | | | | N/A | +-------------------------------+----------------------+----------------------+
显示使用电脑的cuda版本是11.6,需要去pytorch下载对应的版本
https://pytorch.org/get-started/locally/
因为官网没有对应的cuda版本,这里采用了最新的版本11.3
conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch
python #输入库 import torch # 查看版本 print(torch.__version__) # 查看gpu是否可用 torch.cuda.is_available() #返回设备gpu个数 torch.cuda.device_count() #退出python quit()
安装完成,测试GPU是否可用
(D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo\yolov5-master>python Python 3.8.13 (default, Mar 28 2022, 06:59:08) [MSC v.1916 64 bit (AMD64)] :: Anaconda, Inc. on win32 Type "help", "copyright", "credits" or "license" for more information. >>> import torch >>> torch.cuda.is_available() True >>> torch.cuda.device_count() 1
显示有1个GPU,并且可用
因为预先安装了pytorch,需要修改依赖文件。打开刚刚下载的
yolov5/requirements
文件。修改如下- 注释掉
torch
和torchvision
。
# torch>=1.7.0 # torchvision>=0.8.1
2.2 安装依赖
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -U -r requirements.txt
3. 运行官方例子测试
第一次运行会下载yolov5s.pt文件
(D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo\yolov5-master>python detect.py --source data/images/bus.jpg --weights pretrained/yolov5s.pt
运行上述命令,如果没有对应的目录文件,运行会自动下载,再次运行上述命令
(D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo\yolov5-master>python detect.py --source data/images/bus.jpg --weights pretrained/yolov5s.pt
把bus这张图片使用权重为yolov5s的预训练模型进行测试
命令行会输出一下相关信息:
- 权重文件:weights=[‘pretrained/yolov5s.pt’]
- 要检测的图片:source=data/images/bus.jpg
- 图片输入的大小640*640
- 置信度大小:0.5(当有50%的信心认为该图片里面有检测的目标时,就输出)
- 交并比:0.45
- 设备信息:torch版本1.11.0
- 检测结果放置的位置:Results saved to runs\detect\exp2
4. 自定义训练集
- 这里记录一下以后的训练
- 标签
- 修改dnf.yaml中的nc、names
- 修改yolo5s.yaml中的nc
- 运行命令
python train.py --data ./data/dnf.yaml --cfg ./models/yolov5s.yaml --weights '' --epoch 100 --device 0 python train.py --data ./data/dnf.yaml --cfg ./models/yolov5m.yaml --weights '' --epoch 300 --device 0
YOLOV5的几个参数,目前我的计算机GPU只能测试到yolov5m,而yolov5l、yolov5x会报错CUDA out of memory。
ㅤ | depth | width |
yolov5n | 0.33 | 0.25 |
yolov5s | 0.33 | 0.5 |
yolov5m | 0.67 | 0.75 |
4.1 数据标注
- labelImg:
- Make Sense:
我这里使用labelImg工具进行标签标注
4.1.1 安装
(D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo\yolov5-master>pip install labelImg
4.1.2 使用labelImg
在命令行直接输入
labelimg
就可以打开软件了Tips📢📢📢:每次重新打开,保存重置classes.txt
(D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo\yolov5-master>labelImg
使用方式:先选择图片目录,再选择输出的保存目录,最后选择保存格式为yolo。
在图片上按下
w
键开始框选矩形区域,用这个矩形选中要检测的目标,单击鼠标左键确定、首次使用会让你输入标签,你就输入你想填的标签,再点击OK,就行了。后面再框选的话可以选择之前已经有的标签就不用再打字了。标注完一张图片后要记得保存,快捷键
ctrl+s
。之后再切换到下一张图片进行标注就行了。标注一张图片就会生成一个txt文件,这个txt文件就是标注信息,后面自己训练的时候会用到。
这个就是txt文件内容,最开头的0表示标签类型,也就是对应的标签序号。
还会有个classes文件,这个里面存放着标签类型和顺序。
标注是个技术活也是劳力活。因为一般情况下一个模型至少要100或者200多张图片才可以,每张图片都要标的准确不然最后训练的效果会受到影响。
快捷键
Ctrl + s | 保存 | +------------+--------------------------------------------+ | Ctrl + d | Copy the current label and rect box | +------------+--------------------------------------------+ | Space | 标记当前图片已标记 | +------------+--------------------------------------------+ | w | 创建一个矩形 | +------------+--------------------------------------------+ | d | 下一张图片 | +------------+--------------------------------------------+ | a | 上一张图片 |
补充VOC与YOLO标签转换(写论文可以使用一下)
4.2 建立对应文件夹
- 在data目录下images下新建train、valid、test文件夹
- 在data目录下新建labels文件夹,labels中新建train、valid、test文件夹
images --train # 放入训练图片 --valid # 放入验证图片 --test # 放入测试图片 labels --train # 放入训练文件txt --valid # 放入验证文件txt --test # 放入测试文件txt
4.3 新建yaml文件
在data目录下新建dnf.yaml文件
train: images/train # train images (relative to 'path') 128 images val: images/valid # val images (relative to 'path') 128 images test: # test images (optional) # Classes nc: 1 # number of classes names: ['jianying']
- train:数据集的train的地址
- val:数据集的val的地址
- names:数组代表两个类的名字
- nc:表示几个类
4.4 运行训练
- 可以有两种训练方式
- 修改train.py文件里的参数,直接运行train.py文件
- 运行train.py,后面添加对应的参数
# 方式1. 修改train.py后直接运行 python train.py # 方式2. 添加参数的方式(使用运行的 时候关闭一些应用,保证GPU够用,我这里是8G显卡) python train.py --data ./data/dnf.yaml --cfg ./models/yolov5s.yaml --weights '' --epoch 300 --device 0 python train.py --data dnf.yaml --cfg yolov5s.yaml --weights pretrained/yolov5s.pt --epoch 100 --batch-size 4 --device cpu python train.py --data dnf.yaml --cfg yolov5l.yaml --weights pretrained/yolov5l.pt --epoch 100 --batch-size 4 python train.py --data dnf.yaml --cfg yolov5m.yaml --weights pretrained/yolov5m.pt --epoch 100 --batch-size 4
训练的更多可选参数:
-epochs
:训练的epoch,默认值300
-batch-size
:默认值16
一次放入训练的数量,4就是一次放4张图去训练。
-cfg
:模型的配置文件,默认为yolov5s.yaml
-data
:数据集的配置文件,默认为data/coco128.yaml
-img-size
:训练和测试输入大小,默认为[640, 640]
-rect
:rectangular training,布尔值
-resume
:是否从最新的last.pt
中恢复训练,布尔值
-nosave
:仅仅保存最后的checkpoint,布尔值
-notest
:仅仅在最后的epoch上测试,布尔值
-evolve
:进化超参数(evolve hyperparameters),布尔值
-bucket
:gsutil bucket,默认值''
-cache-images
:缓存图片可以更快的开始训练,布尔值
-weights
:初始化参数路径,默认值''
--weights ''
:从头开始训练--weights yolov5s.pt
:从预训练的模型加载开始训练
-name
:如果提供,将results.txt
重命名为results_name.txt
-device
:cuda设备,例如:0或0,1,2,3或cpu
,默认''
,- 0:指定单个GPU不会报错
- 0,1,2,3:当使用两个以上的GPU会报错
-adam
:使用adam优化器
,布尔值
-multi-scale
:改变图片尺寸img-size+/0- 50%
,布尔值
-single-cls
:训练单个类别
的数据集,布尔值
4.5 运行结果
训练结束后,会生成两个预训练的模型:
best.pt
:保存的是中间比较好的模型
last.pt
:训练结束后保存的最后模型
把最终训练的模型保存拷贝一份,防止下载再训练给覆盖,白白训练!!!
4.6 使用训练好的模型测试
和使用官方例子一样,只需运行自己的模型即可,
-weight
参数使用自己的训练模型(D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo\yolov5-master>python detect.py --source data/images/bus.jpg --weights pretrained/yolov5s.pt # 检测单个图片 python detect.py --source data/images/dnf-00378.jpg --weights runs/train/exp/weights/best.pt # 检测文件夹 python detect.py --source data/images/test --weights runs/train/exp/weights/best.pt # 检测视频 python detect.py --source data/images/test/test202206211.mp4 --weights runs/train/exp/weights/best.pt python detect.py --source data/images/test/2022-06-25 --weights runs/train/exp6/weights/best.pt # 监测
参数:
-source
:输入路径
-weights
:选择测试模型
-output
:输出路径
-device
:cuda设备
4.7 图形化界面验证
4.8 查看指标
在Tensorboard上查看数据的训练过程中的一些指标
tensorboard --logdir=runs tensorboard --logdir=runs/train/exp
5. 推理测试
使用预训练的模型进行推理测试,
YOLOv5
支持多种数据源推理测试,如下:- 图像
- 目录
- 视频
- 网络摄像头
- http流
- rtsp流
使用
python detect.py
进行推理,关于推理的更多参数使用如下命令查看:python detect.py -h
-weights
:预训练模型.pt
的路径,默认值为:weights/yolov5s.pt
-source
:输入的数据源,可以是:图片、目录、视频、网络摄像头、http和rtsp流
,默认值为:interence/images
-output
: 输出检测结果的路径,默认值为:inference/output
-img-size
:用于推理图片的大小(pixels
),默认值为:640
-conf-thres
:对象的置信度阈值
(object confidence threshold),默认值为:0.4
-iou-thres
:NMS的IOU阈值( IOU threshold for NMS),默认值为:0.5
-fourcc
:输出视频的编码格式(必须是ffmepeg支持的),例如:H264
格式,默认格式为:mp4v
-half
: 使用版精度F16
推理(half precision FP16 inference),布尔值,默认为true
-device
:cuda设备,例如:0或0,1,2,3或cpu
,默认''
-view-img
:显示结果,‘布尔值,默认为true’
-save-txt
:把结果保存到.txt
文件中
-classes
:过滤类别 CLASSES [CLASSES …],filter by class
-agnostic-nms
:类不可知 NMS
-augment
:增强推理(augmented inference)
# 示例语法(不要运行此单元格) python detect.py --source ./file.jpg # 图片 ./file.mp4 # 视频 ./dir # 目录 0 # 网络摄像头 'rtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa' # rtsp流 'http://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8' # http流
5.1 图像推理
(D:\Cumtb_Code\yolo5demo) D:\Cumtb_Code\yolo5demo\yolov5-master>python detect.py --source data/images/bus.jpg --weights pretrained/yolov5s.pt # 检测单个图片 python detect.py --source data/images/dnf-00378.jpg --weights runs/train/exp/weights/best.pt
5.2 目录推理
# 检测文件夹 python detect.py --source data/images/test --weights runs/train/exp/weights/best.pt # 检测视频 python detect.py --source data/images/test/test202206211.mp4 --weights runs/train/exp/weights/best.pt
5.3 视频推理
# 检测视频 python detect.py --source data/images/test/test202206211.mp4 --weights runs/train/exp/weights/best.pt
5.4 网络摄像头推理
python detect.py --source 0
5.4 HTTP流推理
python detect.py --source 'https://www.bilibili.com/video/BV1vK4y1e7d3?spm_id_from=333.337.search-card.all.click&vd_source=e94b718496f013abafaf9202e5e97c96' --weights pretrained/yolov5s.pt
5.4 rtsp流推理
Demo
思路
- 抓取屏幕
- 实现抓取图像
import cv2 import numpy as np import win32gui import win32ui import win32con import win32api def grab_screen(region=None): hwin = win32gui.GetDesktopWindow() if region: left, top, x2, y2 = region width = x2 - left + 1 height = y2 - top + 1 else: width = win32api.GetSystemMetrics(win32con.SM_CXVIRTUALSCREEN) height = win32api.GetSystemMetrics(win32con.SM_CYVIRTUALSCREEN) left = win32api.GetSystemMetrics(win32con.SM_XVIRTUALSCREEN) top = win32api.GetSystemMetrics(win32con.SM_YVIRTUALSCREEN) hwindc = win32gui.GetWindowDC(hwin) srcdc = win32ui.CreateDCFromHandle(hwindc) memdc = srcdc.CreateCompatibleDC() bmp = win32ui.CreateBitmap() bmp.CreateCompatibleBitmap(srcdc, width, height) memdc.SelectObject(bmp) memdc.BitBlt((0, 0), (width, height), srcdc, (left, top), win32con.SRCCOPY) signedIntsArray = bmp.GetBitmapBits(True) img = np.fromstring(signedIntsArray, dtype='uint8') img.shape = (height, width, 4) srcdc.DeleteDC() memdc.DeleteDC() win32gui.ReleaseDC(hwin, hwindc) win32gui.DeleteObject(bmp.GetHandle()) return cv2.cvtColor(img, cv2.COLOR_BGRA2RGB)
手机案例
scrcpy简介
注意:拼写是scrcpy,非Python爬虫框架Scrapy。
6. 报错
AttributeError: ‘NoneType‘ object has no attribute ‘_free_weak_ref‘
对结果其实没有影响,只是有提示而已!
原因
- pytorch版本问题,如果你pytorch是比较高的版本,那么需要降低版本。
解决方法
pip install torch==1.10.0+cu113 torchvision==0.11.1+cu113 -f https://download.pytorch.org/whl/cu113/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple
7. 工具
7.1 XML转YOLO格式
import xml.etree.ElementTree as ET import pickle import os from os import listdir, getcwd from os.path import join import random from shutil import copyfile classes = ["car", "van", 'bus', 'others'] # classes=["ball"] TRAIN_RATIO = 80 def clear_hidden_files(path): dir_list = os.listdir(path) for i in dir_list: abspath = os.path.join(os.path.abspath(path), i) if os.path.isfile(abspath): if i.startswith("._"): os.remove(abspath) else: clear_hidden_files(abspath) def convert(size, box): dw = 1. / size[0] dh = 1. / size[1] x = (box[0] + box[1]) / 2.0 y = (box[2] + box[3]) / 2.0 w = box[1] - box[0] h = box[3] - box[2] x = x * dw w = w * dw y = y * dh h = h * dh return (x, y, w, h) def convert_annotation(image_id): in_file = open('./VOC2007/Annotations/%s.xml' % image_id) out_file = open('./VOC2007/YOLOLabels/%s.txt' % image_id, 'w') tree = ET.parse(in_file) root = tree.getroot() size = root.find('size') w = int(size.find('width').text) h = int(size.find('height').text) for obj in root.iter('object'): difficult = obj.find('difficult').text cls = obj.find('name').text if cls not in classes or int(difficult) == 1: continue cls_id = classes.index(cls) xmlbox = obj.find('bndbox') b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text)) bb = convert((w, h), b) out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n') in_file.close() out_file.close() wd = os.getcwd() data_base_dir = os.path.join(wd) if not os.path.isdir(data_base_dir): os.mkdir(data_base_dir) work_sapce_dir = os.path.join(data_base_dir, "VOC2007/") if not os.path.isdir(work_sapce_dir): os.mkdir(work_sapce_dir) annotation_dir = os.path.join(work_sapce_dir, "Annotations/") if not os.path.isdir(annotation_dir): os.mkdir(annotation_dir) clear_hidden_files(annotation_dir) image_dir = os.path.join(work_sapce_dir, "JPEGImages/") if not os.path.isdir(image_dir): os.mkdir(image_dir) clear_hidden_files(image_dir) yolo_labels_dir = os.path.join(work_sapce_dir, "YOLOLabels/") if not os.path.isdir(yolo_labels_dir): os.mkdir(yolo_labels_dir) clear_hidden_files(yolo_labels_dir) yolov5_images_dir = os.path.join(data_base_dir, "images/") if not os.path.isdir(yolov5_images_dir): os.mkdir(yolov5_images_dir) clear_hidden_files(yolov5_images_dir) yolov5_labels_dir = os.path.join(data_base_dir, "labels/") if not os.path.isdir(yolov5_labels_dir): os.mkdir(yolov5_labels_dir) clear_hidden_files(yolov5_labels_dir) yolov5_images_train_dir = os.path.join(yolov5_images_dir, "train/") if not os.path.isdir(yolov5_images_train_dir): os.mkdir(yolov5_images_train_dir) clear_hidden_files(yolov5_images_train_dir) yolov5_images_test_dir = os.path.join(yolov5_images_dir, "val/") if not os.path.isdir(yolov5_images_test_dir): os.mkdir(yolov5_images_test_dir) clear_hidden_files(yolov5_images_test_dir) yolov5_labels_train_dir = os.path.join(yolov5_labels_dir, "train/") if not os.path.isdir(yolov5_labels_train_dir): os.mkdir(yolov5_labels_train_dir) clear_hidden_files(yolov5_labels_train_dir) yolov5_labels_test_dir = os.path.join(yolov5_labels_dir, "val/") if not os.path.isdir(yolov5_labels_test_dir): os.mkdir(yolov5_labels_test_dir) clear_hidden_files(yolov5_labels_test_dir) train_file = open(os.path.join(wd, "yolov5_train.txt"), 'w') test_file = open(os.path.join(wd, "yolov5_val.txt"), 'w') train_file.close() test_file.close() train_file = open(os.path.join(wd, "yolov5_train.txt"), 'a') test_file = open(os.path.join(wd, "yolov5_val.txt"), 'a') list_imgs = os.listdir(image_dir) # list image files prob = random.randint(1, 100) print("Probability: %d" % prob) for i in range(0, len(list_imgs)): path = os.path.join(image_dir, list_imgs[i]) if os.path.isfile(path): image_path = image_dir + list_imgs[i] voc_path = list_imgs[i] (nameWithoutExtention, extention) = os.path.splitext(os.path.basename(image_path)) (voc_nameWithoutExtention, voc_extention) = os.path.splitext(os.path.basename(voc_path)) annotation_name = nameWithoutExtention + '.xml' annotation_path = os.path.join(annotation_dir, annotation_name) label_name = nameWithoutExtention + '.txt' label_path = os.path.join(yolo_labels_dir, label_name) prob = random.randint(1, 100) print("Probability: %d" % prob) if (prob < TRAIN_RATIO): # train dataset if os.path.exists(annotation_path): train_file.write(image_path + '\n') convert_annotation(nameWithoutExtention) # convert label copyfile(image_path, yolov5_images_train_dir + voc_path) copyfile(label_path, yolov5_labels_train_dir + label_name) else: # test dataset if os.path.exists(annotation_path): test_file.write(image_path + '\n') convert_annotation(nameWithoutExtention) # convert label copyfile(image_path, yolov5_images_test_dir + voc_path) copyfile(label_path, yolov5_labels_test_dir + label_name) train_file.close() test_file.close()