欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 美景 > 织物布匹疵点检测数据集,布匹缺陷检测数据集 标注工具:LabelImg 数量:已标注1084张(5类);未标注:2000余张

织物布匹疵点检测数据集,布匹缺陷检测数据集 标注工具:LabelImg 数量:已标注1084张(5类);未标注:2000余张

2024/10/24 17:31:43 来源:https://blog.csdn.net/ALiLiLiYa/article/details/142750006  浏览:    关键词:织物布匹疵点检测数据集,布匹缺陷检测数据集 标注工具:LabelImg 数量:已标注1084张(5类);未标注:2000余张

 

织物疵点检测数据集,布匹缺陷检测数据集 标注工具:LabelImg 数量:已标注1084张(5类);未标注:2000余张 简介:织物疵点检测是一种基于计算机视觉技术的自动化检测方法,旨在通过对织物图像进行分析和处理,实现对织物疵点的自动检测和分类。目前,织物疵点检测主要采用机器学习、深度学习等人工智能技术,结合大量的标记数据进行训练和优化,以提高检测准确率和效率。 在织物疵点检测中,常见的疵点类型包括:断经、断纬、缩纬、缩经、擦伤、污渍、错纱、错花、跳花等等。针对不同类型的疵点,需要采用不同的算法和模型进行识别和分类。 应用领域:纺织品生产、纺织品质检、纺织品贸易、纺织品回收利用等场景

织物疵点检测数据集介绍

数据集名称

织物疵点检测数据集 (Fabric Defect Detection Dataset)

数据集概述

该数据集是一个专门用于训练和评估织物疵点检测模型的数据集。数据集包含约3084张图像,其中1084张已经标注了5类常见的织物疵点,剩余2000余张未标注。这些图像涵盖了多种类型的织物及其在不同环境下的状态,适用于基于深度学习的目标检测任务。通过这个数据集,可以训练出能够在复杂环境中准确检测和分类织物疵点的模型,从而帮助进行纺织品生产、质检、贸易及回收利用等应用。

数据集特点
  • 高质量图像:数据集中的图像具有高分辨率,能够提供丰富的细节信息,特别适合织物疵点特征分析。
  • 带标注:已标注的1084张图像都有详细的标注信息,包括疵点的位置和大小。
  • LabelImg标注工具:使用LabelImg进行标注,生成Pascal VOC格式的XML文件。
  • 多类别缺陷:包含5类常见的织物疵点,适用于复杂的缺陷分类任务。
  • 实际应用场景:适用于需要精确检测织物疵点的场景,如纺织品生产线上的自动检测系统、质量检验系统等。
数据集结构
 
fabric_defect_detection_dataset/
├── images/                            # 图像文件
│   ├── 00001.jpg                      # 示例图像
│   ├── 00002.jpg
│   └── ...
├── annotations/                       # Pascal VOC格式标注文件
│   ├── 00001.xml                      # 示例VOC标注文件
│   ├── 00002.xml
│   └── ...
├── data.yaml                          # 类别描述文件
├── README.md                          # 数据集说明
└── model/                             # 预训练模型文件夹(可选)└── fabric_defect_detection_model.pt  # 预训练模型(如果有的话)
数据集内容

  1. images/

    • 功能:存放图像文件。
    • 内容
      • 00001.jpg:示例图像。
      • 00002.jpg:另一张图像。
      • ...
  2. annotations/

    • 功能:存放Pascal VOC格式的XML标注文件。
    • 内容
      • 00001.xml:示例VOC标注文件。
      • 00002.xml:另一张图像的VOC标注文件。
      • ...
  3. data.yaml

    • 功能:定义数据集的类别和其他相关信息。
    • 内容
       
      train: fabric_defect_detection_dataset/images
      val: fabric_defect_detection_dataset/images
      nc: 5
      names: ['break_weft', 'break_warp', 'shrink_weft', 'shrink_warp', 'scratch']  # 断纬, 断经, 缩纬, 缩经, 擦伤
  4. README.md

    • 功能:数据集的详细说明文档。
    • 内容
      • 数据集的来源和用途。
      • 数据集的结构和内容。
      • 如何使用数据集进行模型训练和评估。
      • 其他注意事项和建议。
  5. model/(可选)

    • 功能:存放预训练模型文件。
    • 内容
      • fabric_defect_detection_model.pt:预训练的模型文件(如果有的话)。
数据集统计
  • 总图像数量:约3084张
    • 已标注图像:1084张
    • 未标注图像:2000余张
  • 类别:5类

  • 类别列表
    • break_weft(断纬)
    • break_warp(断经)
    • shrink_weft(缩纬)
    • shrink_warp(缩经)
    • scratch(擦伤)
使用说明
  • 环境准备:确保安装了常用的深度学习库,例如torchtorchvisionnumpy等。
  • 数据集路径设置:将数据集解压到项目目录下,并确保路径正确。
  • 加载预训练模型:如果有预训练模型,可以直接加载并对其进行微调或直接使用。
  • 数据增强:可以通过随机翻转、旋转等方法增加数据多样性,提高模型鲁棒性。
  • 超参数调整:根据实际情况调整学习率、批大小等超参数,以获得最佳训练效果。
  • 硬件要求:建议使用GPU进行训练和推理,以加快处理速度。如果没有足够的计算资源,可以考虑使用云服务提供商的GPU实例。
  • 类别平衡:检查并处理样本不平衡问题,例如通过过采样或欠采样方法。

将VOC格式转换为YOLO格式

为了使YOLO模型可以直接使用该数据集,我们需要将Pascal VOC格式的标注文件转换为YOLO格式的TXT文件。以下是一个Python脚本示例,用于完成这一转换:

import os
import xml.etree.ElementTree as ET
from PIL import Imagedef convert_voc_to_yolo(voc_path, yolo_path, classes):with open(voc_path, 'r') as f:tree = ET.parse(f)root = tree.getroot()size = root.find('size')w = int(size.find('width').text)h = int(size.find('height').text)for obj in root.iter('object'):difficult = obj.find('difficult').textcls = obj.find('name').textif cls not in classes or int(difficult) == 1:continuecls_id = classes.index(cls)xmlbox = obj.find('bndbox')b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))bb = convert((w, h), b)with open(yolo_path, 'a') as out_file:out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')def convert(size, box):dw = 1. / size[0]dh = 1. / size[1]x = (box[0] + box[1]) / 2.0y = (box[2] + box[3]) / 2.0w = box[1] - box[0]h = box[3] - box[2]x = x * dww = w * dwy = y * dhh = h * dhreturn (x, y, w, h)# 定义类别
classes = ['break_weft', 'break_warp', 'shrink_weft', 'shrink_warp', 'scratch']# 转换整个数据集
voc_dir = 'path/to/fabric_defect_detection_dataset/annotations'
yolo_dir = 'path/to/fabric_defect_detection_dataset/labels'if not os.path.exists(yolo_dir):os.makedirs(yolo_dir)for filename in os.listdir(voc_dir):if filename.endswith('.xml'):voc_path = os.path.join(voc_dir, filename)yolo_path = os.path.join(yolo_dir, filename.replace('.xml', '.txt'))convert_voc_to_yolo(voc_path, yolo_path, classes)

训练和评估模型

一旦数据集被转换为YOLO格式,你可以使用YOLOv5或其他YOLO系列模型进行训练和评估。以下是使用YOLOv5的示例代码:

首先,确保你已经安装了YOLOv5的相关依赖。你可以通过以下命令安装YOLOv5:

git clone https://github.com/ultralytics/yolov5
cd yolov5
pip install -r requirements.txt

接下来是训练和评估模型的Python代码示例:

import torch
from pathlib import Path
import yaml# 定义数据集配置文件路径
data_yaml = 'path/to/fabric_defect_detection_dataset/data.yaml'# 读取数据集配置
with open(data_yaml, 'r') as f:data_config = yaml.safe_load(f)# 设置YOLOv5的训练参数
hyp = 'yolov5/data/hyps/hyp.scratch-low.yaml'  # 超参数配置文件
epochs = 100  # 训练轮数
batch_size = 8  # 批大小
imgsz = 640  # 输入图像大小
workers = 4  # 工作线程数# 训练命令
train_command = f"python train.py --img {imgsz} --batch {batch_size} --epochs {epochs} --data {data_yaml} --cfg yolov5s.yaml --weights yolov5s.pt --name fabric_defect_detection --workers {workers} --hyp {hyp}"# 运行训练
!{train_command}# 模型保存路径
model_path = 'runs/train/fabric_defect_detection/weights/best.pt'# 加载模型
model = torch.hub.load('ultralytics/yolov5', 'custom', path=model_path)# 评估模型
val_command = f"python val.py --data {data_yaml} --weights {model_path} --img {imgsz} --batch-size {batch_size} --task test"# 运行评估
!{val_command}

注意事项

  • 数据格式:确保输入的数据格式正确,特别是图像文件和标注文件的格式。
  • 超参数调整:根据实际情况调整学习率、批大小等超参数,以获得最佳训练效果。
  • 硬件要求:建议使用GPU进行训练和推理,以加快处理速度。如果没有足够的计算资源,可以考虑使用云服务提供商的GPU实例。
  • 数据增强:可以通过数据增强技术(如随机翻转、旋转等)来增加模型的鲁棒性。
  • 模型选择:除了YOLOv5,还可以尝试其他目标检测模型,如Faster R-CNN、SSD等,以找到最适合当前任务的模型。
  • 类别平衡:虽然数据集中已有标注的图像数量相对较少,但在实际应用中可能需要进一步检查并处理样本不平衡问题,例如通过过采样或欠采样方法。

通过上述步骤,你可以成功地使用这个高质量的织物疵点检测数据集进行模型训练和评估。该数据集不仅适用于学术研究,还可以应用于实际的纺织品生产、质检、贸易及回收利用等场景,帮助提升对织物疵点的检测准确性和效率。希望这个数据集能帮助你更好地理解和应用最新的深度学习技术。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com