欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 家装 > 12.4深度学习_模型优化和迁移_awanb、tb

12.4深度学习_模型优化和迁移_awanb、tb

2025/2/23 15:27:44 来源:https://blog.csdn.net/gs1we1/article/details/144274169  浏览:    关键词:12.4深度学习_模型优化和迁移_awanb、tb

一、数据获取方法

1. 开源数据集

​ 免费,成本低

  1. PyTorch: https://pytorch.org/vision/stable/datasets.html

  2. 开源数据集imagenet:https://image-net.org/

  3. Hugging Face数据集:https://huggingface.co/datasets

  4. kaggle数据集下载网址:https://www.kaggle.com/datasets

  5. 各种网站:

    https://public.roboflow.com/

    https://zhuanlan.zhihu.com/p/648720525

    https://www.cvmart.net/dataSets

2. 外包平台

效果好,成本高

外包平台(Amazon Mechanical Turk,阿里众包,百度数据众包,京东微工等)

3.自己采集和标注

质量高、效率低、成本高。

labelimg、labelme工具的使用。

4. 通过网络爬虫获取

爬虫工具

二、数据本地化

​ 使用公开数据集时,会自动保存到本地。如果已下载,就不会重复下载。如果需要以图片的形式保存到本地以方便观察和重新处理,可以按照如下方式处理。

1. 图片本地化

使用一下代码保存图片到本地

dir = os.path.dirname(__file__)
def save2local():trainimgsdir = os.path.join(dir, "MNIST/trainimgs")testimgsdir = os.path.join(dir, "MNIST/testimgs")if not os.path.exists(trainimgsdir):os.makedirs(trainimgsdir)if not os.path.exists(testimgsdir):os.makedirs(testimgsdir)trainset = torchvision.datasets.MNIST(root=datapath,train=True,download=True,transform=transforms.Compose([transforms.ToTensor()]),)for idx, (img, label) in enumerate(trainset):labdir = os.path.join(trainimgsdir, str(label))os.makedirs(labdir, exist_ok=True)pilimg = transforms.ToPILImage()(img)# 保存成单通道的灰度图pilimg = pilimg.convert("L")pilimg.save(os.path.join(labdir, f"{idx}.png"))# 加载测试集testset = torchvision.datasets.MNIST(root=datapath,train=False,download=True,transform=transforms.Compose([transforms.ToTensor()]),)for idx, (img, label) in enumerate(testset):labdir = os.path.join(testimgsdir, str(label))os.makedirs(labdir, exist_ok=True)pilimg = transforms.ToPILImage()(img)# 保存成单通道的灰度图pilimg = pilimg.convert("L")pilimg.save(os.path.join(labdir, f"{idx}.png"))print("所有图片保存成功~~")

2. 加载图片数据集

直接下载的图片文件目录也可以直接使用

trainpath = os.path.join(dir, "MNIST/trainimgs")
trainset = torchvision.datasets.ImageFolder(root=trainpath, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=32, shuffle=True)

3. 本地图片序列化

把本地图片存储为 pickle序列化格式,然后通过 tar格式的形式分发。

#自己写代码:找个学生来讲一下

今天自己把本地的图片进行一个序列化处理。

三、过拟合处理

1. 数据增强

可以使用transform完成对图像的数据增强,防止过拟合发生

​ https://pytorch.org/vision/stable/transforms.html

1.1 数据增强的方法

  1. 随机旋转
    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

  2. 镜像

  3. 缩放

  4. 图像模糊

  5. 裁剪

  6. 翻转

  7. 饱和度、亮度、灰度、色相

  8. 噪声、锐化、颜色反转

  9. 多样本增强

    SamplePairing操作:随机选择两张图片分别经过基础数据增强操作处理后,叠加合成一个新的样本,标签为原样本标签中的一种。

    ①、多样本线性插值:Mixup 标签更平滑

    ②、直接复制:CutMix, Cutout,直接复制粘贴样本

    ③、Mosic:四张图片合并到一起进行训练

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

1.2 数据增强的好处

​ 查出更多训练数据:大幅度降低数据采集和标注成本;

​ 提升泛化能力:模型过拟合风险降低,提高模型泛化能力

2. 标准化

3. DROP-OUT

处理过拟合问题的

4. 欠拟合注意事项

欠拟合: 如果模型在训练集和验证集上表现都不够好,考虑增加模型的层级或训练更多的周期。

四、训练过程可视化

1. wandb.ai

可在控制台看到训练进度。

官方文档有清晰简单的代码及思路,直接使用即可:https://wandb.ai/

1.1 安装

pip install wandb

1.2 登录

wandb login

复制平台提供的 API key粘贴回车即可(粘贴之后看不到的)。

1.3 初始化配置

import random# start a new wandb run to track this script
wandb.init(# set the wandb project where this run will be loggedproject="my-awesome-project",# track hyperparameters and run metadataconfig={"learning_rate": 0.02,"architecture": "CNN","dataset": "CIFAR-100","epochs": 10,}
)

1.4 写入训练日志

# log metrics to wandb
wandb.log({"acc": correct / samp_num, "loss": total_loss / samp_num})        

1.5 添加模型记录

# 添加wandb的模型记录
wandb.watch(model, log="all", log_graph=True)

1.6 完成

# [optional] finish the wandb run, necessary in notebooks
wandb.finish()

1.7 查看

根据控制台提供的访问地址去查看训练过程数据即可。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

数据简单说明:

  1. Process GPU Power Usage (W): GPU功率使用情况,以瓦特(W)为单位。
  2. Process GPU Power Usage (%): GPU功率使用占GPU总功率的百分比。
  3. Process GPU Memory Allocated (bytes): 分配给训练过程的GPU内存量,以字节为单位。
  4. Process GPU Memory Allocated (%): 分配给训练过程的GPU内存占GPU总内存的百分比。
  5. Process GPU Time Spent Accessing Memory (%): 训练过程中访问GPU内存的时间百分比。
  6. Process GPU Temp (°C): GPU温度,以摄氏度(°C)为单位。

2. Tensor Board

官方推荐的学习文档:

https://pytorch.org/tutorials/intermediate/tensorboard_tutorial.html

2.1 准备工作

导入tensorboard操作模块

from torch.utils.tensorboard import SummaryWriter

指定tensorboard日志保存路径:可以指定多个实例对象

dir = os.path.dirname(__file__)
tbpath = os.path.join(dir, "tensorboard")
# 指定tensorboard日志保存路径
writer = SummaryWriter(log_dir=tbpath)

2.2 保存训练过程曲线

记录训练数据

# 记录训练数据到可视化面板
writer.add_scalar("Loss/train", loss, epoch)
writer.add_scalar("Accuracy/train", acc, epoch)

训练完后记得关闭

writer.close()

2.3 曲线查看

安装:安装的是执行指令,是一个本地化的服务器

pip install tensorboard

在训练完成后,查看训练结果,在当前目录下,打开控制台窗口:

tensorboard --logdir .

控制台会提示一个访问地址,用浏览器直接访问即可。

http://localhost:6006/

2.4 保存网络结构

保存网络结构到tensorboard

# 保存模型结构到tensorboard
writer.add_graph(net, input_to_model=torch.randn(1, 1, 28, 28))
writer.close()

启动tensorboard,在graphs菜单即可看到模型结构

2.5 模型参数可视化

# 获取模型参数并循环记录
params = net.named_parameters()
for name, param in params:writer.add_histogram(f"{name}_{i}", param.clone().cpu().data.numpy(), epoch)

2.6 记录训练数据

tensorboard中的add_image函数用于将图像数据记录到TensorBoard,以便可视化和分析。这对于查看训练过程中生成的图像、调试和理解模型的行为非常有用,如帮助检查预处理是否生效。

#查看预处理的旋转是否生效
for i, data in enumerate(trainloader, 0):inputs, labels = dataif i % 100 == 0:img_grid = torchvision.utils.make_grid(inputs)writer.add_image(f"r_m_{epoch}_{i * 100}", img_grid, epoch * len(trainloader) + i)

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词