欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 旅游 > 深度学习——损失函数汇总

深度学习——损失函数汇总

2025/2/23 14:35:40 来源:https://blog.csdn.net/m0_59148663/article/details/144797979  浏览:    关键词:深度学习——损失函数汇总

1. 连续值损失函数 

总结:主要使用胡贝儿损失函数,应用于连续数值的预测之间的误差损失,参考地址

import torch
import torch.nn as nna = torch.tensor([[1, 2], [3, 4]], dtype=torch.float)
b = torch.tensor([[3, 5], [8, 6]], dtype=torch.float)loss_fn1 = torch.nn.MSELoss(reduction='none')
loss1 = loss_fn1(a, b)           # loss1 是按照原始维度输出,即对应位置的元素相减然后求平方                
print(loss1)  # 输出结果:tensor([[4., 9.], [25., 4.]])loss_fn2 = torch.nn.MSELoss(reduction='sum')
loss2 = loss_fn2(a, b)          # loss2 是所有位置的损失求和
print(loss2)  # 输出结果:tensor(42.)loss_fn3 = torch.nn.MSELoss(reduction='mean')
loss3 = loss_fn3(a, b)          # loss3 是所有位置的损失求和后取平均
print(loss3)  # 输出结果:tensor(10.5000)

2. 二分类损失函数

<

损失函数

特点

MarginRankingLoss

两个输入变量之间排名,主要用于信息检索中的相关排序;

 BCELoss

衡量预测结果与输入标签之间差异,常用于图像检测和文本分类等;

SoftMarginLoss

预测结果与输入结果之间log损失,适用于非线性可分数据的分类问题;

CosineEmbeddingLoss

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词