1 预备工作
1.1 码源下载
下载地址:YOLOv5码源下载 进不去的同学找个梯子哦。
1.2 模型下载
有梯子的同学可以忽略这一步。 没有梯子的话,通过程序下载模型会很慢,所以还是建议通过GitHub官方去下载。 这边也放上下载地址:YOLOv5模型下载 页面向下拉看到下图页面,直接点击,即可下载。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/3dda05e8f6ae49f497b24a62dfafef48.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 没有梯子的同学,需要的话留言,我会放上百度云连接。
1.3 环境配置
我用的是Anaconda虚拟环境,具体环境配置我会单独写一篇文章。 将下载下来的yolov5-master.zip文件解压。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/5851233b7aed4ab5af3ee24db33aa7de.png#pic_center) ![在这里插入图片描述](https://img-blog.csdnimg.cn/06836081b9254b8aaebae570480f0b01.png#pic_center) 接下来就是配置环境了。 打开Anaconda Prompt输入如下代码,进入虚拟环境。这边的虚拟环境是自定义的虚拟环境,activate后面加的是你自定义的虚拟环境。
activate pytorch
![在这里插入图片描述](https://img-blog.csdnimg.cn/bb41227f7ddd471681be1c27a40de572.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 打开程序可以看到有一个requirements.txt文件,我们通过这个文件来安装没有的包。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/4c0a65fd1b1249caaca7bf1d369865d0.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 在终端虚拟环境中输入如下代码安装requirements.txt中所需要的包。
pip install -r requirements.txt
这边要注意一点,一定去找到requirements.txt当前所在的文件夹去安装,不然会出错。 ERROR: Could not open requirements file: [Errno 2] No such file or directory: ‘requirements.txt’ ![在这里插入图片描述](https://img-blog.csdnimg.cn/e7938676426f43358d5538eec2164b1d.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 按照如下操作通过终端进入解压后的文件夹。 博主是将压缩包解压在D盘,因此输入
d:
进入D盘。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/fb9f41c406774185aad54c0603a619c9.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 点击解压后的文件夹,查看属性,这一步主要是要查看文件夹所属路径。如果文件放得比较浅,可以直接敲。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/65bf6a111e1b42f0bd61f8d0ad167e2f.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_13,color_FFFFFF,t_70,g_se,x_16#pic_center)
在终端输入进入文件夹
cd Download\yolov5-master
cd后面跟的就是你的解压后文件夹路径,这里就是博主所放的一个路径。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/1dae1012756b4473bc93b7fc71e89f4e.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 接着就可以安装requirements.txt中所需要的包啦。 输入指令
pip install -r requirements.txt
![在这里插入图片描述](https://img-blog.csdnimg.cn/c8bb678bdc324bed8cbbd2264685de2a.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 没有出现错误就是安装成功啦。
2 YOLOv5预测
在PyCharm平台上打开detect.py,直接点击运行,看看有没有出错,博主当时下载完模型后是没有出错的,在yolov5-master\data\images文件夹中有两张照片,你也可以放上在自己的照片,进行预测。 预测后的结果在yolov5-master\runs\detect\exp8文件夹中,里面有检测物体方框,物体类别和预测的置信度。如图所示。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/e7a38ddc4a8d4a21a7229131e2335ea3.jpg?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 预测后图片。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/bf2374533aed476f85e22702d59c2b27.jpg?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 当然,如果你想提高检测的置信度,可以改变模型,将原来
parser.add_argument('--weights', nargs='+', type=str, default=ROOT / 'yolov5s.pt', help='model path(s)')
中的模型改成其他的模型,这里的模型从官网下载后的模型。 例如,改成yolo5m.pt这个模型,将原代码改成
parser.add_argument('--weights', nargs='+', type=str, default=ROOT / 'yolov5m.pt', help='model path(s)')
即可。 可以看到检测结果置信度有明显提升,当然,模型越大检测的速度就会越慢。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/3b81d69b966a47eeb07213e074092099.jpg?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAS2F5VmlvbGV0,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) 累了,明天继续train的部分 如果有没有gpu的朋友,还会出Google colab远程服务器的教程,看心情写,进行就先这样。 detect.py文件运行有错误的可以留言一起讨论哦~
|