欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 汽车 > 维修 > CNN-day7-经典神经网络VGG

CNN-day7-经典神经网络VGG

2025/2/11 23:46:19 来源:https://blog.csdn.net/keep_keeprogress/article/details/145518311  浏览:    关键词:CNN-day7-经典神经网络VGG

day8-经典神经网络VGG

VGG的亮点在于它通过堆叠多个卷积层,以小的卷积核和池化层的方式来增加网络深度,从而实现高精度的图像识别。这种方法可以有效地捕获图像中的高级特征,并通过不断拟合训练数据来提高识别准确率。

1 小卷积作用

某层feature map上的元素看到前面不同层上的区域范围是不同的,通常在不特殊指定的情况下,感受野指的是看到输入图像上的区域。

  • 网络层数增加(非线性表达能力增加)

  • 网络参数数量减少

2 VGG版本

#configure
cfgs = {"A": [64, "M", 128, "M", 256, 256, "M", 512, 512, "M", 512, 512, "M"],#VGG11"B": [64, 64, "M", 128, 128, "M", 256, 256, "M", 512, 512, "M", 512, 512, "M"],#VGG13"D": [64, 64, "M", 128, 128, "M", 256, 256, 256, "M", 512, 512, 512, "M", 512, 512, 512, "M"],#VGG16,一般使用这个"E": [64, 64, "M", 128, 128, "M", 256, 256, 256, 256, "M", 512, 512, 512, 512, "M", 512, 512, 512, 512, "M"],#VGG19
}

self.classifier = nn.Sequential(nn.Linear(512 * 7 * 7, 4096),nn.ReLU(True),nn.Dropout(p=dropout),nn.Linear(4096, 4096),nn.ReLU(True),nn.Dropout(p=dropout),nn.Linear(4096, num_classes),)

3 存在的问题

1.网络架构非常大,需要大量的计算资源来训练。如要在较小设备上使用VGG会发现它非常慢并且可能无法获得足够的性能

2.网络结构非常深,可能会导致梯度消失或梯度爆炸。(在非常深的神经网络中,梯度在传播过程中可能会变得非常小或者非常大,导致模型无法正常训练)

4 VGG网络测试

将全连接替换为卷积,从而适应不同输入大小的图。

  • 第1个全连接层转换为7×7的卷积层

  • 后两个全连接层转换为1×1的卷积层

  • 得到一个空间维度可变的多通道的概率图(class score map),空间维度求和平均作为预测概率

5 VGG总体特征

与AlexNet同为链式结构,而且更加简单

  • 结构非常简洁,整个网络使用了同样大小的卷积核尺寸(3×3)和最大池化尺寸(2×2)

  • 几个小滤波器(3×3)卷积层的组合比一个大滤波器(5×5或7×7)卷积层好

  • 层数更深更宽(11层、13层、16层、19层)

  • 池化核变小且为偶数

  • 验证了通过不断加深网络结构可以提升性能

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com