欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 科技 > 能源 > 卷积神经网络

卷积神经网络

2025/3/12 15:39:59 来源:https://blog.csdn.net/2402_86344613/article/details/146134974  浏览:    关键词:卷积神经网络

以下是LeNet、AlexNet、VGGNet、GoogLeNet、ResNet五种模型的对比及相关名词解释回答:

五种模型对比

模型LeNetAlexNetVGGNetGoogLeNetResNet
相同点都属于卷积神经网络,都包含卷积层、池化层、全连接层等基本组件,都用于图像相关任务,基本原理都是通过卷积核提取图像特征
不同点网络结构简单,用于手写数字识别等简单任务首次使用ReLU激活函数、dropout使用叠加更小的卷积核以使相同的感受野下有更少的参数引入Inception模块,去除全连接层,采用平均池化引入残差连接,解决了随网络加深出现的梯度消失和退化问题
优点奠定了CNN基础,简单高效,对简单图像任务有效开启了深度学习在图像领域大规模应用的先河,性能大幅提升网络结构规整,加深网络提高了特征提取能力计算资源利用更高效,模型性能好,参数量相对少能训练极深的网络,解决了网络退化问题,精度高
缺点无法处理复杂的大规模图像数据参数量大,容易过拟合,训练时间长参数量大,计算成本高,训练时间长Inception模块设计复杂,调参困难残差连接可能引入额外计算量,前期训练可能收敛慢

相关名词解释

  • 卷积层作用

    • 通过卷积核在图像上滑动进行卷积操作提取图像的局部特征
  • 卷积层最重要的两个特点

    • 局部连接:减少了参数和计算量
    • 权值共享:降低过拟合风险,增强泛化能力。
  • 感受野

    • 输出层一个元素对应输入层尺寸的大小
    • 计算公式:感受野大小n = (卷积核大小n - 1)* 步长 + 感受野大小n-1
  • 归一化

    • 输入数据按照一定方法,调整到一个特定范围,使数据更容易被处理,提高准确性和效率
  • 独热编码

    • 分类数据转换为适合机器学习算法处理的数值格式
  • 泛化能力

    • 未知数据的适应和预测能力
  • ReLU激活函数的优点

    • 计算简单,速度快;模型收敛快,解决梯度消失
  • 池化层

    • 降低维度减少计算量。对卷积层提取的特征进行下采样。分最大池化和平均池化
  • 全链接层

    • 将信息整合,然后分类回归处理
  • dropout

    • 使一部分神经元随机失活,避免过拟合
  • 什么是残差连接(ResNet)

    • 在网络中,将某一层的输入直接与后面若干层的输出相加,作为后续层的输入,解决了随着网络加深出现的梯度消失退化问题。
  • Inception模块的作用(GoogLeNet)

    • Inception模块是GoogLeNet的核心组件。它通过并行使用多个卷积核和池化操作,然后将结果拼接在一起,能够同时提取不同尺度的特征,增加了网络对不同尺度特征的适应性,提高特征提取的能力减少了参数量,提高计算效率。
  • 为什么设置批处理大小

    • 内存限制、计算效率、优化性能和收敛速度之间找到一个平衡点
  • 学习率

    • 不能过大不能过小,过大可能无法收敛过小则会收敛过慢。要取一个适中的值
  • 训练参数

    • 卷积层:
      • 参数数量=(卷积核高度×卷积核宽度×输入通道数+1)×输出通道数
      • (3 x 3 x 3 +1)*2
      • 输入输出通道数可以理解为深度,如RGB深度为3
    • 池化层:无
    • 全连接层:
      • 参数数量=(输入神经元数+1)×输出神经元数
  • 卷积后尺寸

    • 公式:(输入大小 - 卷积核大小+2 * padding)/步长 +1
  • 训练轮次epochs

    • 定义
      • 整个训练集上完成一次正向传播和反向传播的过程。
    • 作用:
      • 通过多轮训练降低损失值。
    • 数量:适量。
      • 过多导致过拟合(模型对训练数据拟合得过好,但泛化能力差)
      • 过少的导致欠拟合(模型未能充分学习数据的特征)。
    • 早停:损失在多个连续的 Epoch 中不再下降,则可以提前停止训练。
    • 与迭代次数关系:在一个 Epoch 中,模型需要进行 B/N 次迭代(B:训练集总样本,N批处理大小) ,每次迭代处理一个批次的数据。
  • 前向传播

    • 每个神经元都对它的输入和权重相乘再相加,然后加上偏置最后使用非线性激活函数,重复此过程,直至传递到输出层,得出预测概率
  • 反向传播

    • 目的是最小化损失函数的值
  • 损失函数

    • 是衡量模型预测值与真实值之间差异的函数
  • Alexnet 中的水平翻转

    • 增加数据多样性,减少过拟合

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词