欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 维修 > 深度学习之网络构建

深度学习之网络构建

2024/10/25 18:30:01 来源:https://blog.csdn.net/weixin_49146002/article/details/140235051  浏览:    关键词:深度学习之网络构建

目标

在这里插入图片描述

选择合适的神经网络

卷积神经网络(CNN):我们处理图片、视频一般选择CNN
循环神经网络(RNN):我们处理时序数据一般选择RNN

超参数的设置

为什么训练的模型的错误率居高不下

在这里插入图片描述
在这里插入图片描述

如何调测出最优的超参数

在这里插入图片描述
就是要不断循环调测

各个超参数的重要程度

在这里插入图片描述

调参策略

在这里插入图片描述

提升CNN的泛化能力

在这里插入图片描述

激活函数的选择

常见的激活函数包括:sigmoid函数:将输入映射到0到1之间。
tanh函数:将输入映射到-1到1之间。
ReLU函数:修正线性单元,将负值映射为0。
Leaky ReLU:修正线性单元的改进版本,在负值时有一个小的斜率,避免ReLU的神经元死亡问题。

在这里插入图片描述
在这里插入图片描述

损失函数的选择

常见的损失函数包括但不限于:均方误差(Mean Squared Error, MSE): 适用于回归任务,计算预测值与真实值之间的平方差。交叉熵损失(Cross-Entropy Loss): 适用于多分类任务,衡量模型输出的概率分布与真实标签之间的差异,常见的有分类交叉熵和二元交叉熵。对数损失(Log Loss): 也称为二元交叉熵损失,通常用于二分类问题,特别是在逻辑回归模型中。Hinge损失: 主要用于支持向量机(SVM)中,帮助实现最大间隔分类。Huber损失: 对异常值较为鲁棒的回归损失函数,结合了均方误差和绝对误差的优点。自定义损失函数: 根据具体问题的特性和需求,可以设计和使用特定的损失函数。选择合适的损失函数取决于任务的性质和数据的分布,能够最大程度地提高模型的性能和泛化能力。

在这里插入图片描述
在这里插入图片描述

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com