欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 手游 > YOLOv5 v7.0实例分割验证及训练自己数据集

YOLOv5 v7.0实例分割验证及训练自己数据集

2024/10/24 20:18:08 来源:https://blog.csdn.net/JH_joker/article/details/141195095  浏览:    关键词:YOLOv5 v7.0实例分割验证及训练自己数据集

目录

一、原始模型预测

1、模型下载

2、环境配置

3、模型预测

二、训练自己的数据集

1、数据集制作

 2、修改训练参数

2.1 数据集路径参数

2.2 train.py参数

三、训练常见报错

问题1:export GIT_PYTHON_REFRESH=quiet

问题2:Attributeerror: ‘FreeTypeFont‘ object has no attribute ‘getsize‘

四、预测自己的图片

1、基础预测 

2、修改输出结果

2.1 去掉预测框 

2.2 调节mask透明度 

2.3 调节想要的颜色


一、原始模型预测

1、模型下载

        进github官网下载yolov5 v7.0版本源码GitHub - ultralytics/yolov5 at v7.0,也可之间点击我的资源连接进行源码下载【免费】yolov5-7.0源码,附yolov5s分割模型权重资源-CSDN文库

2、环境配置

        需要配置conda虚拟环境,以及torch等深度学习必备环境,网上也有很多教程,这里就不过多叙述(如果有朋友需要环境配置教程,后续我可以再补发一个完整的环境配置教程),当环境配置好后,进入终端环境输入pip install -r requirements.txt,安装必要的库。

3、模型预测

        完成上述工作,我们就可以进行模型实例分割预测了,点击segment/predict.py,可直接运行,这时候模型将预测data/images里面包含的两张图片。如果能进行预测,那么就说明环境配置是没问题了,后面我们就可以训练自己的数据集了。

二、训练自己的数据集

1、数据集制作

        使用labelme制作自己的数据集,我之前写过labelimg的安装方式及使用方法,两者类似,这里我也就不多赘述了。

        当标注完后会生成json文件,但是yolov5分割模型是读取txt文件进行训练的,因此我们还需要将json转换为txt文件,使用以下代码转换:

import os
import cv2
import json
import numpy as npdef txt_write(x,img_x,img_y,txt):data = x['points']n = 1for x in data:for i in x:if n % 2 == 0:txt.write(' ' + str(round(i/img_x,6)))n += 1else:txt.write(' ' + str(round(i/img_y,6)))n += 1  txt.write('\n') def json2txt(json_path,save_path):txt = open(save_path,'w')with open(json_path, "r") as f:data = f.read()data = json.loads(data)img_x = data['imageHeight']img_y = data['imageWidth']shapes = data['shapes']for x in shapes:#print(x['label'])#此处面向不同分类,需要改动下面的标签值,如果是多分类,那么需要增加新的if#只是单分类的话,可以直接去掉if,把里面的模块拿出来用if x['label']=='outlooking':txt.write('0') txt_write(x,img_x,img_y,txt)txt.close()#文件夹
json_dir = 'data/json'
save_dir = 'data/txt'
files = os.listdir(json_dir)
os.makedirs(save_dir, exist_ok=True)
num = 1
for file in files :name = file[0:-5]json_path = json_dir + '/' + name + '.json'save_path = save_dir + '/' + name + '.txt'json2txt(json_path,save_path)print(num,'/',len(files),':',name)num += 1

转化完成后将数据集按照9:1划分训练集和验证集,并按照如下格式创建文件夹,放置相关内容。

 2、修改训练参数

2.1 数据集路径参数

        复制data/coco128-seg.yaml文件,自定义文件名,然后修改训练集和验证集路径以及类别名。

2.2 train.py参数

        修改segment/train.py文件的参数,主要是修改以下这些参数。

 weights是设置的预训练权重,通过官网下载即可,我资源里面也有下载好的;

data就是我们刚才创建的yaml文件,里面包含数据集路径以及数据集类别;

hyp里面是一些超参数设置,有需要也可以去文件中进行调整;

epochs是我们训练的轮数,通常是300左右,根据自己的需求来定;

batch-size是训练一轮的图片数多少,这个根据自己电脑的性能来定。

三、训练常见报错

问题1:export GIT_PYTHON_REFRESH=quiet

解决: 在文件最前面加上os.environ["GIT_PYTHON_REFRESH"] = "quiet",即可完美解决。

问题2:Attributeerror: ‘FreeTypeFont‘ object has no attribute ‘getsize‘

解决:该问题是由于新版本的Pillow(10)删除了该getsize功能,可采用降级的方式改正,但是降级后容易出一些新的问题,因此这里建议直接修改utils/plots.py文件中的第91行左右,找到 w, h = self.font.getsize(label) 这行代码,把他替换成 x, y, w, h = self.font.getbbox(label) 即可完美解决。

四、预测自己的图片

1、基础预测 

修改segment/predict.py文件中的主要相关参数。

weights修改为自己训练的权重文件路径;

source则是我们测试文件的路径;

data则修改为我们之前自己建的yaml文件;

然后就可以进行预测了,图像、视频以及调用摄像头实时检测。 

2、修改输出结果

2.1 去掉预测框 

        由于我们做目标分割,所以有时候我们的展示不需要目标框,这时候我们就需要修改segment/predict.py的代码了,大概是180-184行,直接注释掉就可以了。

2.2 调节mask透明度 

        打开”utils/plots.py”,找到以下代码,并修改alpha,alpha取值范围为0-1,越靠近1越不透明,越靠近0越透明。

def masks(self, masks, colors, im_gpu=None, alpha=0.5):

2.3 调节想要的颜色

         打开“utils/plots.py",找到以下代码,修改hexs里面的代号就行;

class Colors:# Ultralytics color palette https://ultralytics.com/def __init__(self):# hex = matplotlib.colors.TABLEAU_COLORS.values()hexs = ('FF3838', 'FF9D97', 'FF701F', 'FFB21D', 'CFD231', '48F90A', '92CC17', '3DDB86', '1A9334', '00D4BB','2C99A8', '00C2FF', '344593', '6473FF', '0018EC', '8438FF', '520085', 'CB38FF', 'FF95C8', 'FF37C7')self.palette = [self.hex2rgb(f'#{c}') for c in hexs]self.n = len(self.palette)def __call__(self, i, bgr=False):c = self.palette[int(i) % self.n]return (c[2], c[1], c[0]) if bgr else c

        如果你只想要单一的颜色,则可以将该部分代码修改为:

    (只需要将self.black = (0, 0, 0),中的rgb参数(0,0,0)进行修改即可)

class Colors:def __init__(self):self.black = (0, 0, 0)  # 黑色def __call__(self, i, bgr=False):return self.black if not bgr else self.black[::-1]

以上就是yolov5 v7.0版本分割模型的训练以及预测流程,大家有什么问题可以在评论区交流讨论!!

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com