- 🍨 本文为🔗365天深度学习训练营中的学习记录博客
- 🍖 原作者:K同学啊
- 语言环境:Python3.8
- 编译器:Jupyter Lab
- 深度学习环境:
- tensorflow==2.18.0+cuda
目录
1. 前期准备
1.1设置GPU
1.2 导入数据
1.3 检查数据
2. 数据预处理
2.1 划分训练集与测试集
2.2 标准化
3. 构建RNN模型
4. 编译模型
5. 训练模型
6. 评估模型
1. 前期准备
1.1设置GPU
import tensorflow as tfgpus = tf.config.list_physical_devices("GPU")if gpus:gpu0 = gpus[0] #如果有多个GPU,仅使用第0个GPUtf.config.experimental.set_memory_growth(gpu0, True) #设置GPU显存用量按需使用tf.config.set_visible_devices([gpu0],"GPU")gpus
1.2 导入数据
import pandas as pd
import numpy as npdf = pd.read_csv("heart.csv")
df
1.3 检查数据
# 检查是否有空值
df.isnull().sum()
2. 数据预处理
2.1 划分训练集与测试集
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_splitX = df.iloc[:,:-1]
y = df.iloc[:,-1]
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size = 0.1,random_state = 1)
X_train.shape,y_train.shape
2.2 标准化
# 将每一列特征值标准化为正太分布,注意,标准化是针对每一列而言的
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)X_train = X_train.reshape(X_train.shape[0],X_train.shape[1],1)
X_test = X_test.reshape(X_test.shape[0],X_test.shape[1],1)
3. 构建RNN模型
import tensorflow
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense,LSTM,SimpleRNNmodel = Sequential()
model.add(SimpleRNN(200,input_shape=(13,1),activation='relu'))
model.add(Dense(100,activation='relu'))
model.add(Dense(1,activation='sigmoid'))
model.summary()
4. 编译模型
opt = tf.keras.optimizers.Adam(learning_rate=1e-4)model.compile(loss = 'binary_crossentropy',optimizer=opt,metrics="accuracy")
5. 训练模型
epochs = 100history = model.fit(X_train,y_train,epochs=epochs,batch_size=128,validation_data=(X_test,y_test),verbose=1)
6. 评估模型
import matplotlib.pyplot as pltacc = history.history['accuracy']
val_acc = history.history['val_accuracy']loss = history.history['loss']
val_loss = history.history['val_loss']epochs_range = range(epochs)plt.figure(figsize=(12, 4))
plt.subplot(1, 2, 1)
plt.plot(epochs_range, acc, label='Training Accuracy')
plt.plot(epochs_range, val_acc, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')plt.subplot(1, 2, 2)
plt.plot(epochs_range, loss, label='Training Loss')
plt.plot(epochs_range, val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()
scores = model.evaluate(X_test,y_test,verbose=0)
print("%s: %.2f%%" % (model.metrics_names[1],scores[1]*100))
总结:
从上图结果中我们可以看出:
左图:训练与验证准确率
训练集的准确率(蓝色线):随着训练次数增加,呈现出平稳上升趋势,最终接近0.92左右,说明模型在训练数据上的拟合效果逐渐变好。
验证集的准确率(橙色线):一开始随着训练迭代次数增加,验证准确率也在提升,但在约25次迭代后,准确率趋于平稳,甚至有一些波动,特别在60次之后,表现出明显的下降和上升不稳定现象。
右图:训练与验证损失
训练集损失(蓝色线):损失随着迭代次数逐渐下降,这表明模型在训练集上不断优化,误差减少。
验证集损失(橙色线):最开始也在下降,但在大约20次迭代后开始变得平缓,甚至损失值开始回弹。这与验证集准确率下降的现象一致,暗示模型在验证集上的表现没有持续改进。