赞
踩
1. Sequential 模型
该模型假设网络「只有一个输入」和「只有一个输出」,而且网络都是「层的线性堆叠」。
然而 Sequential模型 过于死板,有些网络需要多个独立的输入,有些网络则需要多个输出,而有些网络在层与层之间具有内部分支,这使得网络看起来像是层构成的图,而不是层的线性堆叠。
2.非线性的网络拓扑结构,网络结构为有向无环图
Inception系列网络
依赖 Inception 模块,其输入被多个并行的卷积分支所处理,然后将这些分支的输出合并为单个张量。
添加残差连接
最早出现于 ResNet 系列网络。残差连接是将前面的输出张量与后面的输出张量相加,从而将前面的表示重新注入下游数据流中。
函数式 API ,可以直接操作张量,也可以把层当作函数使用,接收张量并返回张量。
1. 展示一个简单的 Sequential 模型 以及对应的函数式 API 实现
from keras.models import Sequential, Model from keras import layers from keras import Input # Sequential模型 seq_model = Sequential() seq_model.add(layers.Dense(32, activation='relu', input_shape=(64,))) seq_model.add(layers.Dense(32, activation='relu')) seq_model.add(layers.Desne(10, activation=''softmax')) # 对应的函数式API实现 input_tensor = Input(shape=(64,)) x = layers.Dense(32, activation='relu')(input_tensor) x = layers.Dense(32, activation='relu')(x) output_tentor = layers.Dense(10, activation='softmax')(x) # Model类将输入张量和输出张量转换为一个模型 model = Model(input_tensor, output_tensor)
对 Model 实例进行编译、训练或评估时,其 API 与 Sequential 模型相同。
多输入模可以通过 相加、连接 等张量组合方式将不同输入分支合并,通常利用 Keras 的合并运算实现,比如 keras.layers.add、 keras.layers.concatenate 等。
1. 用函数式 API 实现双输入问答模型
典型的 问答模型 有两个输入: 一个自然语言描述的问题 和 一个文本片段 ,后者用于提供回答问题的信息,然后模型会生成一个 「回答」。
设置两个独立分支,将文本输入和问题输入分别编码为表示向量,然后连接这些向量,最后,在连接好的表示上添加 softmax 分类器 。
from keras.models import Model from keras import layers from keras import Input text_vocabulary_size = 10000 question_vocabulary_size = 10000 answer_vocabulary_size = 500 # 文本输入是长度可变的整数序列 # 可以选择对输入进行命名 text_input = Input(shape=(None,), dtype='int32', name='text') # 将输入嵌入长度为64的向量 embedded_text = layers.Embedding(text_vocabulary_size, 64)(text_input) # 利用LSTM将向量编码为单个向量 encoded_text = layers.LSTM(32)(embedded_text) # 对问题进行相同处理 question_input = Input(shape=(None,), dtype='int32', name='question') embedded_question = layers.Embedding(question_vocabulary_size, 32)(question_input) encoded_question = layers.LSTM(16)(embedded_question) # 将编码后的问题和文本连接起来 concatenated = layers.concatenate([encoded_text, encoded_question], axis=-1) # 添加softmax分类器 answer = layers.Dense(answer_vocabulary_size, activation='softmax')(concatenated) # 在模型实例化时,指定两个输入和输出 model = Model([text_input, question_input], answer) model.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['acc'])
2. 将数据输入到多输入模型中
训练双输入模型有两个可用的 API :
import numpy as np import keras num_samples = 1000 max_length = 100 # 生成虚构的Numpy数据 text = np.random.randint(1, text_vocabulary_size, size=(num_samples, max_length)) question = np.random.randint(1, question_vocabulary_size, size=(num_samples, max_length)) answers = np.random.randint(answer_vocabulary_size, size=(num_samples)) answers = keras.utils.to_categorical(answers, answer_vocabulary_size) # 使用输入组成的列表来拟合 model.fit([text, question], answers, epochs=10, batch_size=128) # 使用输入组成的字典来拟合 model.fit({'text': text, 'question': question}, answers, epochs=10, batch_size=128)
使用函数式 API 构建具有多个输出(或多头)的模型。
实例:输入某个匿名人士的一系列社交媒体发帖,然后尝试预测这个人的属性,比如年龄、性别和收入水平。
1. 用函数式 API 实现一个三输出模型
from keras import layers from keras import Input from keras.models import Model vocabulary_size = 50000 num_income_groups = 10 posts_input = Input(shape=(None,), dtype='int32', name='posts') embedded_posts = layers.Embedding(256, vocabulary_size)(posts_input) x = layers.Conv1D(128, 5, activation='relu')(embedded_posts) x = layers.MaxPooling1D(5)(x) x = layers.Conv1D(256, 5, activation='relu')(x) x = layers.Conv1D(256, 5, activation='relu')(x) x = layers.MaxPooling1D(5)(x) x = layers.Conv1D(256, 5, activation='relu')(x) x = layers.Conv1D(256, 5, activation='relu')(x) x = layers.GlobalMaxPooling1D()(x) x = layers.Dense(128, activation='relu')(x) # 输出层具有名称 age_prediction = layers.Dense(1, name='age')(x) income_prediction = layers.Dense(num_income_groups, activation='softmax', name='income')(x) gender_prediction = layers.Dense(1, activation='sigmoid', name='gender')(x) model = Model(posts_input, [age_prediction, income_prediction, gender_prediction])
2. 多输出模型的编译选项:多重损失
多输出模型需要对网络的各个头指定不同的损失函数。
例如,年龄预测是标量回归任务,而性别预测是二分类任务,二者需要不同的训练过程。但是,梯度下降要求将 标量 最小化,所以为了能够训练模型,需要「将损失合并为单个标量」。
合并不同损失最简单的方法就是 对所有损失求和 。
在 Keras 中,可以在编译时使用损失组成的列表或字典为不同输出指定不同的损失,然后就得到的损失值相加得到一个全局损失,并在训练过程中将其最小化。
(1)列表
model.compile(optimizer='rmsprop',
loss=['mse', 'categorical_crossentropy', 'binary_crossentropy'])
(2)字典
model.compile(optimizer='rmsprop',
loss={'age': 'mse',
'income': 'categorical_crossentropy',
'gender': 'binary_crossentropy'})
3. 多输出模型编译选项:损失加权
由于严重不平衡的损失贡献会导致模型表示针对单个损失值最大的任务优先进行优化。
为了解决这个问题,可以为每个损失之对最终损失的贡献分配不同大小的重要性,进行损失加权。
(1)列表
model.compile(optimizer='rmsprop',
loss=['mse', 'categorical_crossentropy', 'binary_crossentropy'],
loss_weight=[0.25, 1., 10.])
(2)字典
model.compile(optimizer='rmsprop',
loss={'age': 'mse',
'income': 'categorical_crossentropy',
'gender': 'binary_crossentropy'},
loss_weights={'age': 0.25,
'income': 1.,
'gender': 10.})
4. 将数据输入到多输出模型中
# 假设posts, age_targets, income_targets, gender_targets都是Numpy数组
model.fit(posts, [age_targets, income_targets, gender_targets],
epochs=10, batch_size=64)
# 与上述写法等效
# 只有输出层具有名称时才有效
model.fit(posts, {'age': age_targets,
'income': income_targets,
'gender': gender_targets},
epochs=10, batch_size=64)
1. Inception 模块
(1)Inception 模型的形式
Inception 模块 最基本的形式包含 3~4 个分支,首先是一个 1 * 1 的卷积,然后是一个 3 * 3 的卷积,最后将所得到的特征连接在一起。
Inception 模块也可能具有更复杂的形式, 通常包含池化运算、不同尺寸的空间卷积和不包含空间卷积的分支。
1 * 1 卷积的作用
- 1 * 1 卷积等价于让每个方块向量经过一个 Dense 层:它计算得到的特征能够将输入张量通道中的信息混合在一起,但不会将跨空间的信息混合在一起。
- 有助于区分通道特征学习和空间特征学习。
(2) 下图是 Inception 模块的一个示例,来自于 Inception V3 :
(3)使用函数式 API 实现图 7-8 中的模块:
from keras import layers
# 假设有一个四维输入张量 x
branch_a = layers.Conv2D(128, 1, activation='relu', strides=2)(x)
branch_b = layers.Conv2D(128, 1, activation='relu')(x)
branch_b = layers.Conv2D(128, 3, activation='relu', strides=2)(branch_b)
branch_c = layers.AveragePooling2D(3, strides=2)(x)
branch_c = layers.Conv2D(128, 3, activation='relu')(branch_c)
branch_d = layers.Conv2D(128, 1, activation='relu')(x)
branch_d = layers.Conv2D(128, 3, activation='relu')(branch_d)
branch_d = layers.Conv2D(128, 3, activation='relu', strides=2)(branch_d)
output = layers.concatenate(
[branch_a, branch_b, branch_c, branch_d], axis=-1)
2. 残差连接
(1)残差连接解决了两个问题
表示瓶颈;
在 Sequential 模型中,每个连续的表示层都构建于前一层之上,这意味着它只能访问前一层激活中包含的信息。如果某一层太小,那么模型将会受限于该层激活中的信息量。
梯度消失;
反向传播的工作原理是将来自输出损失的反馈信号向下传播到更底部的层,如果信息需要传播很多层,那么信号很可能变得非常微弱,导致网络无法训练。
残差连接引入了一个「纯线性的信息携带轨道」,与主要的层堆叠方向平行,有助于跨越任意深度的层来传播梯度。
(2)原理
残差连接是让前面某层的输出作为后面某层的输入, 前面层的输出与后面层的激活相加。
如果二者形状不同,则可以用一个线性变换将前面层的激活改变成目标形状。
(3)在 Keras 中实现残差连接
① 假设特征图尺寸相同,使用恒等残差连接
# 假设有一个四维输入张量x
x = ...
y = layers.Conv2D(128, 3, activation='relu', padding='same')(x)
y = layers.Conv2D(128, 3, activation='relu', padding='same')(y)
y = layers.Conv2D(128, 3, activation='relu', padding='same')(y)
y = layers.add([y, x]) # 将原始x与输出特征相加
② 假设特征图尺寸不同,使用线性残差连接
# 假设有一个四维输入张量x
x = ...
y = layers.Conv2D(128, 3, activation='relu', padding='same')(x)
y = layers.Conv2D(128, 3, activation='relu', padding='same')(y)
y = layers.MaxPooling2D(2, strides=2)(y)
# 使用1*1卷积,将原始x张量线性下采样为与y具有相同的形状
residual = layers.Conv2D(128, 1, strides=2, padding='same')(x)
y = layers.add([y, x]) # 将原始x与输出特征相加
函数式 API 能够多次、重复使用一个层的实例。
如果对一个层实例多次调用,每次调用可以重复使用相同的权重。因此可以构建具有共享分支的模型,即几个分支都共享相同的知识并执行相同的运算。
实例:使用一个 LSTM层处理两个输入,将其称为 连体 LSTM ,或 共享 LSTM 模型。代码如下:
from keras import layers from keras import Input from keras.models import Model # 实例化一个LSTM层 lstm = layers.LSTM(32) # 构建模型的左分支 left_input = Input(shape=(None, 128)) left_output = lstm(left_input) # 构建模型的右分支 # 如果调用已有层实例,会重复使用它的权重 right_input = Input(shape=(None, 128)) right_output = lstm(right_input) # 构建一个分类器 merged = layers.concatenate([left_output, right_output], axis=-1) predictions = layers.Dense(1, activation='sigmoid')(merged) # 模型实例化并训练 # 基于两个输入对LSTM层的权重进行更新 model = Model([left_input, right_input], predictions) model.fit([left_data, right_data], targets)
在函数式 API 中,可以像层一样使用模型,将模型看作更大的层。
也就是说,可以在一个输入张量上调用模型,并得到一个输出张量:
y = model(x)
如果模型具有多个输入张量和输出张量,那么应该使用张量列表:
y1, y2 = model([x1, x2])
在调用模型实例时,就是在重复使用模型的权重,重复使用模型实例学到的表示。
1. 回调函数
在调用 fit 时传入模型的一个对象(实现特定方法的类实例),它在训练过程中的不同时间点都会被模型调用。
它可以访问关于模型状态与性能的所有可用数据,还可以采取行动:中断训练、保存模型、加载一组不同的权重或改变模型的状态。
2. 回调函数的用法示例:
3. Keras.callbacks 模块包含的回调函数
4. ModelCheckpoint 与 EarlyStopping 回调函数
如果监控的目标指标在设定的轮数内不再改善,可以用 EarlyStopping 回调函数中断训练。
比如,这个函数可以在刚开始过拟合的时候就中断训练,它通常与 ModelCheckpoint 结合使用,后者可以在训练过程中持续保存模型,也可以选择只保存目前的最佳模型。
import keras # 通过fit的callbacks参数将回调函数传入模型 # 这个参数接收一个回调函数列表 callbacks_list = [ # 如果不再改善,就中断训练 keras.callbacks.EarlyStopping( monitor='acc', # 监控模型的验证精度 # 如果精度在多于一轮(2轮)的时间内不再改善,中断训练 patience=1, ), # 在每轮过后保存当前权重 keras.callbacks.ModelCheckpoint( filepath='my_model.h5', # 目标模型文件的保存路径 # 如果val_loss没有改善,那么不需要覆盖模型文件 # 可以始终保存在训练过程中的最佳模型 monitor='val_loss', save_best_only=True, ) ] model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['acc']) # 监控精度,所以它应该是模型指标的一部分 # 由于回调函数要监控验证损失和验证精度 # 所以在调用fit时需要传入验证数据 model.fit(x, y, epochs=10, batch_size=32, callbacks=callbacks_list, validation_data=(x_val, y_val))
5. ReduceLROnPlateau 回调函数
如果验证损失不再改善,可以使用这个函数来降低学习率 。在训练过程中出现了 损失平台,那么增大或减小学习率都是跳出局部最小值的有效策略。
callbacks_list = [
keras.callbacks.ReduceLROnPlateau(
monitor='val_loss',
factor=0.1, # 触发时将学习率除以10
# 如果验证损失在10轮内都没有改善,那么就触发这个回调函数
patience=10,
)
]
model.fit(x, y,
epochs=10,
batch_size=32,
callbacks=callbacks_list,
validation_data=(x_val, y_val)
)
6. 编写自己的回调函数
(1)如果需要在训练过程中采取特定行动, 而这项行动没有包含在内置回调函数中,那么可以编写自己的回调函数。
(2)回调函数的实现方式
创建 keras.callbacks.Callback 类的子类。
然后实现下列方法,分别在训练过程中的不同时间点被调用。
这些方法被调用时都有一个 logs 参数,它是一个字典,里面包含前一个批量、前一个轮次或前一次训练的信息,即训练指标和验证指标等。
(3)回调函数还可以访问以下属性
(4)自定义回调函数的简单示例
在每轮结束后将模型每层的激活保存在硬盘(格式为 Numpy 数组),这个激活是对验证集的第一个样本计算得到的。
import keras import numpy as np class ActivationLogger(keras.callback.Callback): def set_model(self, model): # 在训练之前由父模型调用,告诉回调函数是哪个模型在调用它 self.model = model layer_outputs = [layer.output for layer in model.layers] # 模型实例,返回每层的激活 self.activations_model = keras.models.Model(model.input, layer_outputs) def on_epoch_end(self, epoch, logs=None): if self.validation_data is None: raise RuntimeError('Requires validation_data. ') # 获取验证数据的第一个输入样本 validation_sample =self.validation_data[0][0:1] activations = self.activations_model.predict(validation_sample) # 将数组保存到硬盘 f = open('activations_at_epoch_' + str(epoch) + '.npz', 'w') np.savez(f, activations) f.close()
1. TensorBoard
内置于 TensorFlow 中的基于浏览器的可视化工具。 只有当 Keras 使用 TensorFlow 后端时,这一方法才能用于 Keras 模型。
功能
2. 实例:在 IMDB 情感分析任务上训练一个一维卷积神经网络
只考虑 IMDB 词表中的前 2000 个单词,更易于将词嵌入可视化。
(1) 使用了 TensorBoard 的文本分类模型
import keras from keras import layers from keras.datasets import imdb from keras.preprocessing import sequence max_features = 2000 # 作为特征的单词个数 max_len = 500 # 之后的单词都被截断 (x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features) x_train = sequence.pad_sequences(x_train, maxlen=max_len) x_test = sequence.pad_sequences(x_test, maxlen=max_len) model = keras.models.Sequential() model.add(layers.Embedding(max_features, 128, input_length=max_len, name='embed')) model.add(layers.Conv1D(32, 7, activation='relu')) model.add(layers.MaxPooling1D(5)) model.add(layers.Conv1D(32, 7, activation='relu')) model.add(layers.GlobalMaxPooling1D()) model.add(layers.Dense(1)) model.summary() model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['acc'])
(2)为 TensorBoard 日志文件创建一个目录
mkdir my_log_dir
(3)使用一个 TensorBoard 回调函数训练模型
该函数会将日志事件写入硬盘的指定位置。
callbacks = [
keras.callbacks.TensorBoard(
log_dir='my_log_dir', # 日志文件将写入这个位置
histogram_freq=1, # 每一轮之后将记录激活直方图
embeddings_freq=1, # 每一轮之后记录嵌入数据
)
]
history = model.fit(x_train, y_train,
epochs=20,
batch_size=128,
validation_split=0.2,
callbacks=callbacks)
(4)命令行启动 TensorBoard 服务器
tensorboard --logdir=my_log_dir
(5)查看模型训练过程
浏览器打开 http://localhost:6006。
①训练指标和验证指标的实时图表;
②访问 HISTOGRAMS(直方图)标签页,查看美观的直方图可视化,直方图中是每层的激活值。
③访问 GRAPHS(图)标签页,显示 Keras 模型背后的底层TensorFlow 运算图的交互式可视化。图的内容比想象的多很多,因为在底层需要构建相当复杂的图结构才可能生效。 Keras 让工作流程变简单了。
④ Keras 中提供了一种简洁的方法—— keras.utils.plot_model 函数,将模型绘制为层组成的图。
from keras.utils import plot_model
plot_model(model, to_file='model.png')
也可以选择在层组成的图中显示形状信息,使用 plot_model 函数以及 show_shapes 选项将模型拓扑结构可视化。
from keras.utils import plot_model
plot_model(model, show_shapes=True, to_file='model.png')
1. 批标准化
批标准化,即 batch normalization,在 keras 中是 BatchNormalization ,在训练过程中均值和方差随时间发生变化,也可以将数据标准化。
工作原理
训练过程中在内部保存已读取每批数据均值和方差的指数移动平均值。
作用
有助于梯度传播,允许更深的网络。
BatchNormalization 层通常在 卷积层 或 密集连接层 之后使用。
BatchNormalization 层接受一个 axis 参数,指定应该对哪个特征轴做标准化,默认值是 -1 ,即输入张量的最后一个轴(一般指通道),如果通道不是最后一个参数,那么应该修改 axis 参数。
2. 深度可分离卷积
这个层对输入的每个通道分别执行空间卷积,然后通过逐点卷积(1 * 1 卷积)将输出通道混合,相当于将空间特征学习和通道特征学习分开。
作用:适用于输入中的空间位置高度相关、但不同通道之间相对独立的情况。需要的参数更少,计算量也更小,可以得到更小、更快的模型。能够使用更少的数据学到更好的表示,得到性能更好的模型。
超参数 :在架构层面的参数。
确定超参数的方法
在进行超参数优化时,要注意 验证集过拟合,因为是使用验证数据计算出一个信号,然后根据这个信号更新超参数,所以实际上是在验证数据上训练超参数,很快就会对验证数据过拟合。
模型集成 :指将一系列不同模型的预测结果汇集到一起,得到更好的预测结果。
实例:分类器集成
可以对每个分类器的预测结果使用加权平均,其权重在验证数据上学习到。为了找到好的集成权重,可以使用 随机搜索 或 简单的优化算法。
集成方法想要有效,需要分类器具有多样性。
如果各个模型的偏差在不同方向上,那么这些偏差会彼此抵消,集成结果也会更加稳定和准确。
模型集成的优秀实践:基于树的方法 (随机森林或梯度提升树)和 深度神经网络 集成。
赞
踩
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。