diff --git a/src/image_recognition/README.md b/src/image_recognition/README.md index 2df6c3f..0c3c04a 100644 --- a/src/image_recognition/README.md +++ b/src/image_recognition/README.md @@ -1,99 +1,7 @@ -# 手把手教你使用YOLOV5训练自己的目标检测模型 -大家好,这里是肆十二(dejahu),好几个月没有更新了,这两天看了一下关注量,突然多了1k多个朋友关注,想必都是大作业系列教程来的小伙伴。既然有这么多朋友关注这个大作业系列,并且也差不多到了毕设开题和大作业提交的时间了,那我直接就是一波更新。这期的内容相对于上期的果蔬分类和垃圾识别无论是在内容还是新意上我们都进行了船新的升级,我们这次要使用YOLOV5来训练一个口罩检测模型,比较契合当下的疫情,并且目标检测涉及到的知识点也比较多,这次的内容除了可以作为大家的大作业之外,也可以作为一些小伙伴的毕业设计。废话不多说,我们直接开始今天的内容。 +# 测试一下 -> B站讲解视频:[手把手教你使用YOLOV5训练自己的目标检测模型_哔哩哔哩_bilibili](https://www.bilibili.com/video/BV1YL4y1J7xz) -> -> CSDN博客:[手把手教你使用YOLOV5训练自己的目标检测模型-口罩检测-视频教程_dejahu的博客-CSDN博客](https://blog.csdn.net/ECHOSON/article/details/121939535) -> -> 代码地址:[YOLOV5-mask-42: 基于YOLOV5的口罩检测系统-提供教学视频 (gitee.com)](https://gitee.com/song-laogou/yolov5-mask-42) -> -> 处理好的数据集和训练好的模型:[YOLOV5口罩检测数据集+代码+模型2000张标注好的数据+教学视频.zip-深度学习文档类资源-CSDN文库](https://download.csdn.net/download/ECHOSON/63290559) -> -> 更多相关的数据集:[目标检测数据集清单-附赠YOLOV5模型训练和使用教程_dejahu的博客-CSDN博客](https://blog.csdn.net/ECHOSON/article/details/121892887) - -先来看看我们要实现的效果,我们将会通过数据来训练一个口罩检测的模型,并用pyqt5进行封装,实现图片口罩检测、视频口罩检测和摄像头实时口罩检测的功能。 - -![image-20211212181048969](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20211212181048969.png) - -![image-20211212194124635](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20211212194124635.png) - -## 下载代码 - -代码的下载地址是:[[YOLOV5-mask-42: 基于YOLOV5的口罩检测系统-提供教学视频 (gitee.com)](https://gitee.com/song-laogou/yolov5-mask-42)](https://github.com/ultralytics/yolov5) - -![image-20211214191424378](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20211214191424378.png) - -## 配置环境 - -不熟悉pycharm的anaconda的小伙伴请先看这篇csdn博客,了解pycharm和anaconda的基本操作 - -[如何在pycharm中配置anaconda的虚拟环境_dejahu的博客-CSDN博客_如何在pycharm中配置anaconda](https://blog.csdn.net/ECHOSON/article/details/117220445) - -anaconda安装完成之后请切换到国内的源来提高下载速度 ,命令如下: - -```bash -conda config --remove-key channels -conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/main/ -conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/free/ -conda config --add channels https://mirrors.bfsu.edu.cn/anaconda/cloud/pytorch/ -conda config --set show_channel_urls yes -pip config set global.index-url https://mirrors.ustc.edu.cn/pypi/web/simple -``` - - - -首先创建python3.8的虚拟环境,请在命令行中执行下列操作: - -```bash -conda create -n yolo5 python==3.8.5 -conda activate yolo5 -``` - -### pytorch安装(gpu版本和cpu版本的安装) - -实际测试情况是YOLOv5在CPU和GPU的情况下均可使用,不过在CPU的条件下训练那个速度会令人发指,所以有条件的小伙伴一定要安装GPU版本的Pytorch,没有条件的小伙伴最好是租服务器来使用。 - -GPU版本安装的具体步骤可以参考这篇文章:[2021年Windows下安装GPU版本的Tensorflow和Pytorch_dejahu的博客-CSDN博客](https://blog.csdn.net/ECHOSON/article/details/118420968) - -需要注意以下几点: - -* 安装之前一定要先更新你的显卡驱动,去官网下载对应型号的驱动安装 -* 30系显卡只能使用cuda11的版本 -* 一定要创建虚拟环境,这样的话各个深度学习框架之间不发生冲突 - -我这里创建的是python3.8的环境,安装的Pytorch的版本是1.8.0,命令如下: - -```cmd -conda install pytorch==1.8.0 torchvision torchaudio cudatoolkit=10.2 # 注意这条命令指定Pytorch的版本和cuda的版本 -conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 cpuonly # CPU的小伙伴直接执行这条命令即可 -``` - -安装完毕之后,我们来测试一下GPU是否 - -![image-20210726172454406](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20210726172454406.png) - -### pycocotools的安装 - -后面我发现了windows下更简单的安装方法,大家可以使用下面这个指令来直接进行安装,不需要下载之后再来安装 - -``` -pip install pycocotools-windows -``` - -### 其他包的安装 - -另外的话大家还需要安装程序其他所需的包,包括opencv,matplotlib这些包,不过这些包的安装比较简单,直接通过pip指令执行即可,我们cd到yolov5代码的目录下,直接执行下列指令即可完成包的安装。 - -```bash -pip install -r requirements.txt -pip install pyqt5 -pip install labelme -``` - -### 测试一下 - -在yolov5目录下执行下列代码 +在yolov5(image_recognize)目录下执行下列代码 ```bash python detect.py --source data/images/bus.jpg --weights pretrained/yolov5s.pt @@ -121,9 +29,9 @@ python detect.py --source data/images/bus.jpg --weights pretrained/yolov5s.pt -## 数据处理 +# 数据处理 -这里改成yolo的标注形式,之后专门出一期数据转换的内容。 +这里改成yolo的标注形式 数据标注这里推荐的软件是labelimg,通过pip指令即可安装 @@ -135,9 +43,9 @@ python detect.py --source data/images/bus.jpg --weights pretrained/yolov5s.pt ![image-20210609172557286](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20210609172557286.png) -### 数据标注 +## 数据标注 -虽然是yolo的模型训练,但是这里我们还是选择进行voc格式的标注,一是方便在其他的代码中使用数据集,二是我提供了数据格式转化 +虽然是yolo的模型训练,但是这里我们还是选择进行voc格式的标注,方便在其他的代码中使用数据集 **标注的过程是:** @@ -188,9 +96,9 @@ YOLO_Mask 到这里,数据集处理部分基本完结撒花了,下面的内容将会是模型训练! -## 模型训练 +# 模型训练 -### 模型的基本训练 +## 模型的基本训练 在models下建立一个`mask_yolov5s.yaml`的模型配置文件,内容如下: @@ -220,11 +128,10 @@ python train.py --data mask_data.yaml --cfg mask_yolov5s.yaml --weights pretrain ![image-20210610145140340](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20210610145140340.png) -当然还有一些骚操作,比如模型训练到一半可以从中断点继续训练,这些就交给大家下去自行探索喽。 ## 模型评估 -出了在博客一开头你就能看到的检测效果之外,还有一些学术上的评价指标用来表示我们模型的性能,其中目标检测最常用的评价指标是mAP,mAP是介于0到1之间的一个数字,这个数字越接近于1,就表示你的模型的性能更好。 +可以用一些学术上的评价指标用来表示我们模型的性能,其中目标检测最常用的评价指标是mAP,mAP是介于0到1之间的一个数字,这个数字越接近于1,就表示你的模型的性能更好。 一般我们会接触到两个指标,分别是召回率recall和精度precision,两个指标p和r都是简单地从一个角度来判断模型的好坏,均是介于0到1之间的数值,其中接近于1表示模型的性能越好,接近于0表示模型的性能越差,为了综合评价目标检测的性能,一般采用均值平均密度map来进一步评估模型的好坏。我们通过设定不同的置信度的阈值,可以得到在模型在不同的阈值下所计算出的p值和r值,一般情况下,p值和r值是负相关的,绘制出来可以得到如下图所示的曲线,其中曲线的面积我们称AP,目标检测模型中每种目标可计算出一个AP值,对所有的AP值求平均则可以得到模型的mAP值,以本文为例,我们可以计算佩戴安全帽和未佩戴安全帽的两个目标的AP值,我们对两组AP值求平均,可以得到整个模型的mAP值,该值越接近1表示模型的性能越好。 @@ -275,39 +182,7 @@ python val.py --data data/mask_data.yaml --weights runs/train/exp_yolov5s/weight ![image-20211212194547804](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20211212194547804.png) -替换之后直接右键run即可启动图形化界面了,快去自己测试一下看看效果吧 - +替换之后直接右键run即可启动图形化界面了 ![image-20211212194914890](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20211212194914890.png) -## 找到我 - -你可以通过这些方式来寻找我。 - -B站:[肆十二-](https://space.bilibili.com/161240964) - -CSDN:[肆十二](https://blog.csdn.net/ECHOSON) - -知乎:[肆十二 ](https://www.zhihu.com/people/song-chen-ming-28) - -微博:[肆十二-](https://weibo.com/u/5999979327) - -现在关注以后就是老朋友喽! - -![image-20211212195912911](https://vehicle4cm.oss-cn-beijing.aliyuncs.com/typoraimgs/image-20211212195912911.png) - - - - - - - - - - - - - - - -