基于cuda12.6训练yolov5模型
前面完成了使用CPU调用yolov5s模型进行识别车辆,现在想训练自己的模型进行目标识别,使用CPU效率太低,尝试使用GPU加速的Pytorch,再重新整理了一下完整的流程
- 注:
- 显卡:RTX 2050
- cuda:NVIDIA CUDA 12.7.33
- 最后完成了一个识别doro头像的模型:
GitHub开源地址:https://github.com/ChengYull/YOLOv5-CUDA12_6-Training
环境部署
Anaconda环境
Anaconda 是一个用于数据科学和机器学习的开源 Python 发行版本,它简化了包管理和环境管理。可以创建隔离的 Python 环境,避免包冲突。
- 隔离的Python环境非常重要,因为在训练时用到的图片标注工具需要Python3.9版本,而进行训练时用的是Python3.10版本
前往官网下载最新版即可:https://www.anaconda.com/download/
安装完成后使用win+r输入cmd打开命令行,输入conda --version命令
如果成功获取到了版本,说明安装成功
如果提示找不到conda命令,则需要手动配置下环境变量
找到系统变量中的Path,然后下Anaconda安装目录中的condabin目录添加进去
确定关闭环境变量窗口后,新开命令行重新输入conda --version命令 应当是能获取到对应安装的版本
至此Anaconda环境配置完成
- 常用命令
- 创建环境:conda create -n 环境名 python=版本号
- 激活环境:conda activate 环境名
- 删除环境:conda env remove --name 环境名
环境配置完成,顺便创建虚拟环境
命令行输入:- conda create -n doro python=3.10
复制代码 创建环境
创建完成,在conda根目录的env文件夹下也会生成对应环境名的文件夹
激活环境
Pytorch环境
这里已经决定使用GPU,需要查看显卡的cuda版本,安装对应支持的cuda版本,再安装对应的Pytorch版本
cuda安装
打开英伟达控制面板,电脑任务栏搜索可以直接搜索NVIDIA Contol Panel打开
找到系统信息
找到cuda版本信息
这里我的版本是12.7.33,也就是安装的cuda版本要小于等于12.7.33
打开cuda的下载地址:https://developer.nvidia.com/cuda-toolkit-archive
这里我选择了12.6.0版本
这里选择的网络版下载
注意可以选择自定义(精简默认安装C盘)
第一次安装尽量全选
等待下载安装
安装完成后,查看环境变量Path,确定安装完成
打开命令行,运行nvcc --version即可查看版本号
安装成功
cuDNN安装
cuDNN(CUDA Deep Neural Network Library)是 NVIDIA 官方推出的 GPU 加速深度学习库,专为深度神经网络(DNN)计算优化,支持 CNN(卷积神经网络)、RNN(循环神经网络)、Transformer 等模型的训练和推理加速。
cuDNN需要登录英伟达账户才能下载,没有直接注册即可
下载地址:https://developer.nvidia.com/rdp/cudnn-download
同上选择自定义 全选
记住安装目录
安装完成后打开对应目录
将bin、include、lib文件夹拷贝到cuda的安装目录下
查看环境变量中是否配置了这4项(若没有则补上)
cuDNN安装完成
Pytorch安装
打开Pytorch官网:https://pytorch.org/
往下滑找到下图模块,选择对应的版本(cuda12.6不支持Conda安装 仅能使用pip安装)复制安装命令
cuda12.6版本的Pytorch,清华镜像源暂时没更新,使用清华镜像会下载cpu版本,所以只能使用源地址下载,大概要下载两个小时
注意要在激活对应的Conda环境下运行命令
等待下载完成
完成后可以前往Pycharm中验证是否能够调用到GPU
新建项目,选择基础conda(在自定义环境中conda无法选取我们创建的安装Pytorch的虚拟环境)
创建后,进入设置-项目-Python解释器,修改环境为安装Pytorch的环境
创建程序 验证
代码:- import torch
- flag = torch.cuda.is_available()
- print(flag)
- ngpu = 1
- # Decide which device we want to run on
- device = torch.device("cuda:0" if (torch.cuda.is_available() and ngpu > 0) else "cpu")
- print(device)
- print(torch.cuda.get_device_name(0))
- print(torch.rand(3, 3).cuda())
复制代码 成功调用到GPU
至此所有环境配置完成
训练集准备
labelImg图片标注工具安装
给图片标注构造训练集,用于训练模型,由于在Python3.10环境下,labelImg软件存在闪退问题,这里使用Conda为LabelImg创建一个新的Python3.9环境- conda create -n label python=3.9
复制代码 注意先激活环境再安装LabelImg安装LabelImg- conda install pyqt labelimg
复制代码
找到创建的环境目录,找到Scrip文件夹
打开界面如下
可以参考一下我的设置
注意:save下方一定要选择yolo模型,否则标注保存的文件是xml文件而非txt文件
标注图片
创建一个单独的文件夹,我这里命名train,再在里面创建两个文件夹(images、labels)以及一个yaml文件(doro.yaml)
yaml文件内容:- # train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
- train: ../train/images/
- val: ../train/images/
- # number of classes
- nc: 1
- # class names
- names: ['doro']
复制代码 准备好用于训练的图片,我这里是在网上下载的表情包,大概有五十多张,放到刚刚创建的images文件夹中
打开LabelImg,选择打开文件夹
选择保存文件夹位置
设置一下label名称,就无需手动输入了
按键w可以快捷创建选框,按键A和D是切换上下张图片
完成后在labels文件夹下就会出现标注的内容
至此训练集准备完成
模型训练
yolov5模型源码部署
Github仓库获取yolov5源码:https://github.com/ultralytics/yolov5
这里我使用的是Pycharm克隆项目
将对应地址填入克隆配置中
克隆完成如图
同上设置Python解释器
安装依赖- pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
复制代码
安装完成后测试运行(第一次运行会自动下载yolov5s.pt模型)- python detect.py --weights yolov5s.pt --source data/images/bus.jpg
复制代码
在runs目录如果可以查看到运行结果,说明运行正常
训练
这里为了方便,将之前创建的train文件夹(存放训练集)移动到项目中
在目录中创建src文件夹,用于存放自己的代码
配置训练参数(数据集路径需要改为对应的yaml文件路径)- from train import parse_opt, main
- import torch
- # 在训练前清理GPU缓存
- torch.cuda.empty_cache()
- def custom_train():
- opt = parse_opt()
- opt.data = "../train/doro.yaml" # 数据集路径
- opt.weights = "../yolov5s.pt" # 权重文件
- opt.imgsz = 640 # 图像尺寸
- opt.batch_size = 8 # 批量大小
- opt.epochs = 100 # 训练轮次
- opt.nosave = False # 允许保存检查点
- opt.save_period = 20 # 每20轮保存一次
- opt.cache = True # 启用数据缓存
- opt.device = "0" # 使用GPU 0(若为CPU则设为"cpu")
- opt.lr0 = 0.01 # 初始学习率
- # 启动训练
- main(opt)
- if __name__ == "__main__":
- custom_train()
复制代码 其中图像尺寸imgsz和批量大小batch_size要根据显存配置,如果训练过程中出现torch.OutOfMemoryError: CUDA out of memory,试着将其适当调小
如果多次修改无果,可以试着重启电脑(亲测有效)
训练正式开始,等待100轮的训练
训练完成后,在runs文件夹下可以找到训练好的模型文件(如果不想保存中间生成的模型文件,可以在训练参数将opt.nosave = True改为True,删掉opt.save_period = 20配置)
测试模型
这里使用openCV来读取视频来识别作为测试- import cv2
- import torch
- # 读取视频
- video_path = "../testVideo/doro3.mp4"
- cap = cv2.VideoCapture(video_path)
- # 加载训练的模型
- model = torch.hub.load('../../test_doro', 'custom', path='../runs/train/exp/weights/best.pt', source='local')
- # 检查视频是否成功打开
- if not cap.isOpened():
- print("无法打开视频文件")
- exit()
- # 播放视频
- while True:
- ret, frame = cap.read()
- if not ret:
- break
- # 模型推理
- results = model(frame)
- # 获取预测结果
- for pred in results.pred[0]:
- x1, y1, x2, y2, conf, cls = pred.tolist()
- class_name = model.names[int(cls)]
- # 输出结果
- print(f"检测到:{class_name}, 置信度:{conf:.2f}")
- cv2.rectangle(frame, (int(x1), int(y1)), (int(x2), int(y2)), (0, 255, 0), 2)
- cv2.putText(frame, f"{class_name} {conf:.2f}", (int(x1), int(y1) - 10),
- cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2)
- # 显示当前帧
- cv2.imshow("Video", frame)
- # 按下 'q' 键退出
- if cv2.waitKey(1) & 0xFF == ord('q'):
- break
- # 释放视频捕获对象和关闭所有窗口
- cap.release()
- cv2.destroyAllWindows()
复制代码 这里发现能够成功识别,且效果还行,但是发现控制台有一行警告信息,非常影响观感
根据提示,找到models目录下的common.py文件,搜索 with amp.autocast(autocast):
将其替换为:- with torch.amp.autocast("cuda",enabled=autocast):
复制代码 这里有两处:分别在879行和906行
再次运行测试代码,警告消失
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |