欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 财经 > 产业 > 深度学习历程

深度学习历程

2025/3/12 13:24:28 来源:https://blog.csdn.net/m0_63925226/article/details/144792167  浏览:    关键词:深度学习历程

基础概念

batch size

  • 定义:指在一次训练迭代中,所使用的样本数量。比如训练图像识别模型时,若 batch size 设为 32,就表示每次更新模型参数时,会使用 32 张图像作为一个批次进行计算。

token

  • 定义:是对文本等数据进行处理时划分的基本单元。在自然语言处理中,可将单词、字符或短语当作 token。例如句子 “I love deep learning”,以单词为单位划分,“I”“love”“deep”“learning” 就是 4 个 token;以字符为单位,“I”“ ”“l”“o” 等都是 token。

depths

depths 是一个列表,它指定了 ConvNeXt 模型中每个阶段的卷积块数量。在这个例子中,depths=[3, 3, 27, 3] 表示模型有 4 个阶段,每个阶段的卷积块数量分别为 3、3、27 和 3。

卷积块(Convolutional Block)

在卷积神经网络(CNN)中,卷积块是一组组合在一起的卷积层、激活函数和其他操作(如归一化层)的集合。它是构建更复杂 CNN 架构的基本单元。将多个操作组合成一个块的目的是为了实现特定的功能或特征提取模式,并且可以方便地在网络中重复使用。

dims

dims 也是一个列表,它指定了 ConvNeXt 模型中每个阶段的特征维度。在这个例子中,dims=[192, 384, 768, 1536] 表示每个阶段输出的特征图的通道数分别为 192、384、768 和 1536。

 

深度学习各层介绍:

卷积层(convolution):保存原有空间信息

下采样层:减少空间信息,从而降低运算时间(maxpooling最大池化层:假设是2x2的,就是在2x2的4个单元格中去一个最大的)

relu层

1.BP神经网络

张量(tensor)是什么

反向传播(back propagation)b站刘老师

怎样通过E去一步步修正的b1,a1,b2,a2 ?当误差值为0时,说明此时权值合适。通过链式求导,能精确计算出隐藏层每个权值的变化对最终误差的影响程度。权值的导数越大说明该权值对误差的影响越大。

权值更新机制:引入一个学习率(α)

2.颜色空间

Lab 颜色空间简介

  • L: 表示亮度(Lightness),范围通常在 0 到 100 之间。
  • a: 表示绿色到红色的色彩通道。
  • b: 表示蓝色到黄色的色彩通道。

3.cv2

cvtColor

orig_l = cv2.cvtColor(img, cv2.COLOR_BGR2Lab)[:, :, :1]  # (h, w, 1)
#将输入的 BGR 图像 img 转换为 Lab 颜色空间,并提取出 Lab 颜色空间中的亮度通道(L通道)
#[:, :, :1] : 表示选择所有的行和所有的列,而 :1 表示选择第一个通道(Lab 颜色空间中的亮度通道)。

 

 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词