赞
踩
目录
使用到的数据集为IMDB电影评论情感分类数据集,该数据集包含 50,000 条电影评论,其中 25,000 条用于训练,25,000 条用于测试。每条评论被标记为正面或负面情感,因此该数据集是一个二分类问题。
我们构建一个包含嵌入层、全局平均池化层和输出层的神经网络,输入数据是一组英文电影评论,输出结果是二分类标签,即正面评价或负面评价。
其中,嵌入层将单词索引序列编码为连续的实数向量表示;全局平均池化层将这些向量取平均值去除位置信息,并将其映射到固定长度的向量中;输出层则使用 sigmoid 激活函数进行二分类预测。使用 Adam 优化器和二元交叉熵损失函数进行模型训练,并以准确率作为评估指标,共训练10轮,训练过程如图9所示。
图9 IMDB电影评论情感分析训练过程
训练出的电影评论情感分析模型在测试集上的准确率和损失随训练的轮次的变化如图10所示。
图10情感分析 准确率
具体数据如表5所示。
表5 情感分析
由结果可以知道,我们训练出来的电影评论情感分析模型,其数据的拟合效果和测试的泛化效果都比较理想。
从Keras库中导入mnist数据集、Sequential模型、Dense、Flatten、Conv2D、MaxPooling2D层以及np_utils工具。
- from keras.datasets import mnist
- from keras.models import Sequential
- from keras.layers import Dense, Flatten, Conv2D, MaxPooling2D
- from keras.utils import np_utils
- import time
首先从Keras库中引入手写数字数据集MNIST,它是一个包含60,000个训练样本和10,000个测试样本的数据集。然后使用load_data()函数将MNIST数据集加载到程序中,并将数据集分为训练集和测试集,其中x_train、y_train为训练集,x_test、y_test为测试集。
- # 加载手写体数据集,将数据集分为训练集和测试集
- (x_train, y_train), (x_test, y_test) = mnist.load_data()
- start_time = time.perf_counter()
由于神经网络只能够接受数值型数据,因此需要将手写数字图像转换为数据张量格式。在这个过程中,需要将每个图像转换为28x28的矩阵,并添加额外的一维来表示颜色通道。同时,由于图像数据的大小范围可能不同,进行归一化可以使所有的图像数据都落在[0,1]之间。归一化后,可以将数据集中所有值除以255,将其转换为float32类型。
对于图片的标签,将每个数字转化为10个输出,如0输出为1000000000,1输出为0100000000,3输出为0010000000。
- # 将数据变为四维张量并归一化
- x_train = x_train.reshape(x_train.shape[0], 28, 28, 1).astype('float32') / 255
- x_test = x_test.reshape(x_test.shape[0], 28, 28, 1).astype('float32') / 255
- # 将类别数据转换为 one-hot 编码
- Y_train = np_utils.to_categorical(y_train, 10)
- Y_test = np_utils.to_categorical(y_test, 10)
这里采用了Sequential模型,它是一系列层的线性堆叠。在模型中,首先添加一个卷积层Conv2D,用于提取图像特征。该层的参数有:filters=1,表示所用滤波器的数量;kernel_size=(3,3),表示滤波器的大小;activation='relu',表示使用ReLU激活函数。然后添加一个池化层MaxPooling2D,用于降采样,减少参数的数量。该层的参数pool_size=(2, 2),表示池化区域的大小。接下来添加一个Flatten层,将张量展平为一维向量,用于连接全连接层。最后添加一个全连接层Dense,它具有10个输出神经元,表示0~9这10个数字分类。该层的激活函数为softmax,用于输出每个分类的概率。
- # 构建模型
- model = Sequential() # 定义一个序贯模型
- # 卷积层
- model.add(Conv2D(filters=1, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)))
- # 池化层
- model.add(MaxPooling2D(pool_size=(2, 2)))
- model.add(Flatten()) # 一维化数据
- # 全连接层
- model.add(Dense(10, activation='softmax')) # 添加一个全连接层,输出大小为10,激活函数为softmax
在编译模型时,需要指定损失函数、优化器和评估指标。这里将损失函数设为交叉熵,优化器使用Adam算法,评估指标为准确率。
- # 编译模型
- model.compile(loss='categorical_crossentropy', # 使用交叉熵作为损失函数
- optimizer='adam', # 使用adam优化器进行训练
- metrics=['accuracy']) # 在训练过程中监测模型的精度
使用fit()方法对构建好的神经网络进行训练,并迭代多次以逐渐优化模型。在这个过程中,需要输入训练数据和标签。同时,可以设置分批次训练和训练的轮数等参数,verbose可用于决定是否显示训练过程。
- # 训练模型
- history = model.fit(x_train, Y_train, # 输入训练数据和标签
- batch_size=128, epochs=5, # 分批次训练,每个批次包含128个样本
- verbose=1) # 显示训练过程
使用evaluate()方法对模型进行测试,并返回测试误差和测试准确率。
- # 使用测试集进行验证
- # 评估模型
- score = model.evaluate(x_test, Y_test, verbose=0) # 对模型进行测试并返回测试误差和测试准确率
在训练结束后,输出模型在测试集上的准确率,并记录总的时间消耗。
- # 记录结束时间
- end_time = time.perf_counter()
- print('Test accuracy:', score[1]) # 输出测试准确率
- print('Time consumption:', end_time - start_time, 'seconds')
- from keras.datasets import mnist
- from keras.models import Sequential
- from keras.layers import Dense, Flatten, Conv2D, MaxPooling2D
- from keras.utils import np_utils
- import time
-
- # 加载手写体数据集,将数据集分为训练集和测试集
- (x_train, y_train), (x_test, y_test) = mnist.load_data()
- start_time = time.perf_counter()
- # 将数据变为四维张量并归一化
- x_train = x_train.reshape(x_train.shape[0], 28, 28, 1).astype('float32') / 255
- x_test = x_test.reshape(x_test.shape[0], 28, 28, 1).astype('float32') / 255
- # 将类别数据转换为 one-hot 编码
- Y_train = np_utils.to_categorical(y_train, 10)
- Y_test = np_utils.to_categorical(y_test, 10)
- # 构建模型
- model = Sequential() # 定义一个序贯模型
- # 卷积层
- model.add(Conv2D(filters=1, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)))
- # 池化层
- model.add(MaxPooling2D(pool_size=(2, 2)))
- model.add(Flatten()) # 一维化数据
- # 全连接层
- model.add(Dense(10, activation='softmax')) # 添加一个全连接层,输出大小为10,激活函数为softmax
- # 编译模型
- model.compile(loss='categorical_crossentropy', # 使用交叉熵作为损失函数
- optimizer='adam', # 使用adam优化器进行训练
- metrics=['accuracy']) # 在训练过程中监测模型的精度
- # 训练模型
- history = model.fit(x_train, Y_train, # 输入训练数据和标签
- batch_size=128, epochs=5, # 分批次训练,每个批次包含128个样本
- verbose=1) # 显示训练过程
- # 使用测试集进行验证
- # 评估模型
- score = model.evaluate(x_test, Y_test, verbose=0) # 对模型进行测试并返回测试误差和测试准确率
- # 记录结束时间
- end_time = time.perf_counter()
- print('Test accuracy:', score[1]) # 输出测试准确率
- print('Time consumption:', end_time - start_time, 'seconds')
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。