欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 培训 > AI学习记录 - 对抗性神经网络

AI学习记录 - 对抗性神经网络

2024/10/24 23:27:28 来源:https://blog.csdn.net/weixin_43954090/article/details/141633706  浏览:    关键词:AI学习记录 - 对抗性神经网络

有用点赞哦

学习机器学习到一定程度之后,一般会先看他的损失函数是什么,看他的训练集是什么,训练集是什么,代表我使用模型的时候,输入是什么类型的数据。

对抗神经网络其实可以这样子理解,网上一直说生成器和判别器的概念,没有触及到本质。

我有一种看法:假如当前场景是输入模糊图片,然后输出高质量图片。当判别器和生成器本来就是一个模型,在不把判别器生成器拆开的时候,我输入一张图片,这个模型输出的是0和1,那这个整体模型的作用就是判断这个图片是不是高清图片,训练集是【模糊图片,0】,【高清图片,1】,通过这种方式进行反向传播。但是现在的目的不是判断他是不是高质量图片,而是要他给我生成高质量图片,所以要在中间切开变成两份,前一份模型修改一下输出,让他输出的是一张图片的格式矩阵,后一份模型修改一下输入,让他输入的是一张图片的格式矩阵,就像个协议一样前一半后一半规格一样就可以接起来,你可能会说我不改变他的输入输出本来的规格也一样啊,但是我说了规格变成一张图片,那人不就是看懂了吗,原来中间切开的输出,人看不懂啊,也不符合我要实现输入模糊图片,输出高清图片的目的。

判别器:判别器是单独训练

训练集就是【真实图片, 1】,【虚假图片, 0】,一个批次有2种训练集,大概如下

第一种:【【真实图片, 1】,【真实图片, 1】,【真实图片, 1】,【真实图片, 1】】
第二种:【【虚假图片, 0】,【虚假图片, 0】,【虚假图片, 0】,【虚假图片, 0】】

所以会产生两种损失:

真实图片的损失
	discriminator.train()d_loss1 = discriminator(images, real_targets)
利用生成器生成图片,然后丢到判别器
	 with torch.no_grad():generated_images = generator(batch_size)# Loss with generated image inputs and fake_targets as labelsd_loss2 = discriminator(generated_images, fake_targets)
两种损失加起来,然后反向传播
	d_loss = d_loss1 + d_loss2d_optimizer.zero_grad()d_loss.backward()d_optimizer.step()

生成器:生成器的训练是将 生成器 和 判别器 整合一起训练,我还没完全理解,后续再看看

反向传播的过程,使用损失值对生成器的参数进行反向传播,更新生成器的权重。判别器的权重在这一步保持不变。

单独创建两个优化器,用哪个优化器,就更新哪个模型的权重,这里有两个模型
# Optimizersg_optimizer = torch.optim.Adam(generator.parameters(), lr=g_lr)d_optimizer = torch.optim.Adam(discriminator.parameters(), lr=d_lr)
单独更新
    # Generate images in train modegenerator.train()generated_images = generator(batch_size)# Loss with generated image inputs and real_targets as labelsg_loss = discriminator(generated_images, real_targets)# Optimizer updates the generator parametersg_optimizer.zero_grad()g_loss.backward()g_optimizer.step()  # 更新生成器权重

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com