1. 数据预处理
手写数字识别:通常使用MNIST数据集,包含28x28的灰度图像。
CIFAR-10:包含60,000张32x32的彩色图像,分为10类,每类6,000张。
数据预处理步骤:
归一化:将像素值归一化到[0, 1]或[-1, 1]。
数据增强:如随机裁剪、水平翻转等,增加数据多样性。
数据加载:使用PyTorch的`DataLoader`加载数据,支持批量处理和并行加载。
2. 模型设计
模型设计步骤:
卷积层:提取图像特征。
池化层:降低特征图尺寸,减少计算量。
全连接层:将特征映射到类别空间。
激活函数:如ReLU,增加非线性。
Dropout:防止过拟合。
3. 训练
损失函数:多分类问题常用交叉熵损失(CrossEntropyLoss)。
优化器:如SGD、Adam,用于更新模型参数。
学习率调度:动态调整学习率,提高训练效果。
在训练过程中,我们将遍历整个数据集多次(称为“epoch”)。
训练步骤:
1.前向传播和反向传播
在前向传播(Forward Propagation)过程中,神经网络接收输入数据并通过其层进行处理,最终生成输出。pytorch中用forward表示。
反向传播是自动进行的,当你定义了模型和损失函数后,只需要调用损失函的.backward()方法,pytorch会自动计算梯度并更新模型的权重。
区别:
①前向传播是为了得到预测结果,而反向传播是为了训练网络,即更新网络的权重和偏置
②前向传播计算层与层之间的输出,反向传播计算损失函数关于参数的梯度。
2. 定义损失函数和优化器
在训练模型之前,我们需要定义一个损失函数和一个优化器。损失函数用于量化模型预测与真实标签之间的差异,优化器用于更新模型的权重。
① 定义损失函数
criterion = nn.CrossEntropyLoss()
②定义优化器
optimizer = optim.Adam(model.parameters(), lr=0.01)
3.参数更新
使用优化器更新模型参数,使用在反向传播之后。
可以使用这些代码:
# 反向传播和参数更新
optimizer.zero_grad() # 清空过往梯度
loss.backward() # 反向传播,计算当前梯度
optimizer.step() # 根据梯度更新网络参数
4. 评估
评估步骤:
准确率:分类正确的样本占总样本的比例。
混淆矩阵:分析各类别的分类情况。
可视化:如绘制损失曲线、准确率曲线。
5. 结果分析与优化
如果准确率不满足要求,我们可以从以下几个方面进行优化:
数据增强:增加数据的多样性,提高模型泛化能力。
模型调整:修改网络结构,增加深度或宽度。
超参数调优:调整学习率、批次大小等参数。
正则化:引入Dropout、权重衰减等方法减少过拟合。