欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 建筑 > 复现YOLOv8语义分割训练自己的数据集

复现YOLOv8语义分割训练自己的数据集

2025/2/23 7:26:16 来源:https://blog.csdn.net/m0_56182552/article/details/141127370  浏览:    关键词:复现YOLOv8语义分割训练自己的数据集

一、YOLOv8源码下载:https://github.com/ultralytics/ultralytics/tree/v8.2.76

我下载的是最新版本8.2.76

接着下载权重

下载源码后解压

二、配置虚拟环境

创建虚拟环境

conda create -n yolov8 python==3.9

激活环境

conda activate yolov8

下载pytorch,官网地址:PyTorch

出现以下内容就是已经装好了pytorch

用pycharm打开源代码工程文件,虚拟环境选择yolov8

虚拟环境中装ultralytics

pip install ultralytics

进入项目路径下运行测试代码,cd ultralytics-8.2.76,然后预测目标检测

 yolo predict model=yu/detection/yolov8n.pt source='ultralytics/assets/bus.jpg'

也可预测实例分割功能

yolo predict model=yu/segmentation/yolov8n-seg.pt source='ultralytics/assets/bus.jpg' 

三、训练自己的数据集,segment数据集是用labelme标注的,所以是json格式的,但yolov8训练需要用txt后缀的数据集,所以需要将json格式转成txt格式

(1)labelme标注后的json格式文件

json2txt代码

# -*- coding: utf-8 -*-
import json
import os
import argparse
from tqdm import tqdmdef convert_label_json(json_dir, save_dir, classes):json_paths = os.listdir(json_dir)classes = classes.split(',')for json_path in tqdm(json_paths):# for json_path in json_paths:path = os.path.join(json_dir, json_path)with open(path, 'r') as load_f:json_dict = json.load(load_f)h, w = json_dict['imageHeight'], json_dict['imageWidth']# save txt pathtxt_path = os.path.join(save_dir, json_path.replace('json', 'txt'))txt_file = open(txt_path, 'w')for shape_dict in json_dict['shapes']:label = shape_dict['label']label_index = classes.index(label)points = shape_dict['points']points_nor_list = []for point in points:points_nor_list.append(point[0] / w)points_nor_list.append(point[1] / h)points_nor_list = list(map(lambda x: str(x), points_nor_list))points_nor_str = ' '.join(points_nor_list)label_str = str(label_index) + ' ' + points_nor_str + '\n'txt_file.writelines(label_str)if __name__ == "__main__":parser = argparse.ArgumentParser(description='json convert to txt params')parser.add_argument('--json-dir', type=str,default='./json', help='json path dir')parser.add_argument('--save-dir', type=str,default='./txt' ,help='txt save dir')parser.add_argument('--classes', type=str, default='spring_water',help='classes')  args = parser.parse_args()json_dir = args.json_dirsave_dir = args.save_dirclasses = args.classesconvert_label_json(json_dir, save_dir, classes)

改后的txt文件

(2)修改数据加载配置文件,在E:\project\MODEL\YOLO\yolov8-8.2.76\ultralytics-8.2.76\ultralytics\cfg\datasets,选择coco128-seg.yaml

我图片较少,没分训练集验证集。

(3)修改模型配置文件,在E:\project\MODEL\YOLO\yolov8-8.2.76\ultralytics-8.2.76\ultralytics\cfg\models\v8

选择yolov8-seg.yaml,修改nc为自己数据集所需检测类别的个数

至此,所有的配置已经完成。

四、训练自己的数据集

在Terminal下输入指令:yolo train data=你的配置文件(xx.yaml)的绝对路径 model=yolov8s.pt epochs=300 imgsz=640 batch=8 workers=0 device=0  这是用的yolov8s-seg.pt当作预训练模型

 yolo segment train data=ultralytics\cfg\datasets\coco128-seg-0812.yaml model=yu\segmentation\yolov8s-seg.pt epochs=100 imgsz=640 batch=2 workers=0 device=0

linux下训练的指令: yolo segment train data=ultralytics/cfg/datasets/coco128-seg-0812.yaml model=yu/segmentation/yolov8s-seg.pt epochs=100 imgsz=640 batch=2 workers=0 device=0  注意Linux下用正斜杠/,而不是反斜杠\

也可用改好的模型配置文件训练

yolo segment train data=ultralytics\cfg\datasets\coco128-seg-0812.yaml model=ultralytics\cfg\models\v8\yolov8-seg-0812.yaml epochs=100 imgsz=640 batch=2 workers=0 device=0

注意Linux下用正斜杠/,指令是yolo segment train data=ultralytics/cfg/datasets/coco128-seg-0812.yaml model=ultralytics/cfg/models/v8/yolov8-seg-0812.yaml epochs=100 imgsz=640 batch=2 workers=0 device=0

如果想使用多卡训练,device='\0,1,2,xxx\'

训练过程首先会显示你所使用的训练的硬件设备信息,然后下一段话则是你的参数配置,紧接着是backbone信息,最后是加载信息,并告知你训练的结果会保存在runs\segment\trainxx。

训练结束后可以测试自己的模型,把结果坐标也保存下来

 yolo segment predict model=runs/segment/train3/weights/best.pt source=datasets/segment/1first_0812/images  save_txt

就可以在runs\segments\predict\看到测试的结果图和labels了。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词