当前位置:   article > 正文

Keras函数式模型_loss_weights

loss_weights

快速开始函数式(Functional)模型

我们起初将Functional一词译作泛型,想要表达该类模型能够表达任意张量映射的含义,但表达的不是很精确,在Keras 2里我们将这个词改译为“函数式”,对函数式编程有所了解的同学应能够快速get到该类模型想要表达的含义。函数式模型称作Functional,但它的类名是Model,因此我们有时候也用Model来代表函数式模型。

Keras函数式模型接口是用户定义多输出模型、非循环有向模型或具有共享层的模型等复杂模型的途径。一句话,只要你的模型不是类似VGG一样一条路走到黑的模型,或者你的模型需要多于一个的输出,那么你总应该选择函数式模型。函数式模型是最广泛的一类模型,序贯模型(Sequential)只是它的一种特殊情况。

这部分的文档假设你已经对Sequential模型已经比较熟悉

让我们从简单一点的模型开始

第一个模型:全连接网络

Sequential当然是实现全连接网络的最好方式,但我们从简单的全连接网络开始,有助于我们学习这部分的内容。在开始前,有几个概念需要澄清:

  • 层对象接受张量为参数,返回一个张量。

  • 输入是张量,输出也是张量的一个框架就是一个模型,通过Model定义。

  • 这样的模型可以被像KerasSequential一样被训练

  1. from keras.layers import Input, Dense
  2. from keras.models import Model
  3. # This returns a tensor
  4. inputs = Input(shape=(784,))
  5. # a layer instance is callable on a tensor, and returns a tensor
  6. x = Dense(64, activation='relu')(inputs)
  7. x = Dense(64, activation='relu')(x)
  8. predictions = Dense(10, activation='softmax')(x)
  9. # This creates a model that includes
  10. # the Input layer and three Dense layers
  11. model = Model(inputs=inputs, outputs=predictions)
  12. model.compile(optimizer='rmsprop',
  13. loss='categorical_crossentropy',
  14. metrics=['accuracy'])
  15. model.fit(data, labels) # starts training

所有的模型都是可调用的,就像层一样

利用函数式模型的接口,我们可以很容易的重用已经训练好的模型:你可以把模型当作一个层一样,通过提供一个tensor来调用它。注意当你调用一个模型时,你不仅仅重用了它的结构,也重用了它的权重。

  1. x = Input(shape=(784,))
  2. # This works, and returns the 10-way softmax we defined above.
  3. y = model(x)

这种方式可以允许你快速的创建能处理序列信号的模型,你可以很快将一个图像分类的模型变为一个对视频分类的模型,只需要一行代码:

  1. from keras.layers import TimeDistributed
  2. # Input tensor for sequences of 20 timesteps,
  3. # each containing a 784-dimensional vector
  4. input_sequences = Input(shape=(20, 784))
  5. # This applies our previous model to every timestep in the input sequences.
  6. # the output of the previous model was a 10-way softmax,
  7. # so the output of the layer below will be a sequence of 20 vectors of size 10.
  8. processed_sequences = TimeDistributed(model)(input_sequences)

多输入和多输出模型

使用函数式模型的一个典型场景是搭建多输入、多输出的模型。

考虑这样一个模型。我们希望预测Twitter上一条新闻会被转发和点赞多少次。模型的主要输入是新闻本身,也就是一个词语的序列。但我们还可以拥有额外的输入,如新闻发布的日期等。这个模型的损失函数将由两部分组成,辅助的损失函数评估仅仅基于新闻本身做出预测的情况,主损失函数评估基于新闻和额外信息的预测的情况,即使来自主损失函数的梯度发生弥散,来自辅助损失函数的信息也能够训练Embeddding和LSTM层。在模型中早点使用主要的损失函数是对于深度网络的一个良好的正则方法。总而言之,该模型框图如下:

multi-input-multi-output-graph

让我们用函数式模型来实现这个框图

主要的输入接收新闻本身,即一个整数的序列(每个整数编码了一个词)。这些整数位于1到10,000之间(即我们的字典有10,000个词)。这个序列有100个单词。

  1. from keras.layers import Input, Embedding, LSTM, Dense
  2. from keras.models import Model
  3. # Headline input: meant to receive sequences of 100 integers, between 1 and 10000.
  4. # Note that we can name any layer by passing it a "name" argument.
  5. main_input = Input(shape=(100,), dtype='int32', name='main_input')
  6. # This embedding layer will encode the input sequence
  7. # into a sequence of dense 512-dimensional vectors.
  8. x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)
  9. # A LSTM will transform the vector sequence into a single vector,
  10. # containing information about the entire sequence
  11. lstm_out = LSTM(32)(x)

然后,我们插入一个额外的损失,使得即使在主损失很高的情况下,LSTM和Embedding层也可以平滑的训练。

auxiliary_output = Dense(1, activation='sigmoid', name='aux_output')(lstm_out)

再然后,我们将LSTM与额外的输入数据串联起来组成输入,送入模型中:

  1. auxiliary_input = Input(shape=(5,), name='aux_input')
  2. x = keras.layers.concatenate([lstm_out, auxiliary_input])
  3. # We stack a deep densely-connected network on top
  4. x = Dense(64, activation='relu')(x)
  5. x = Dense(64, activation='relu')(x)
  6. x = Dense(64, activation='relu')(x)
  7. # And finally we add the main logistic regression layer
  8. main_output = Dense(1, activation='sigmoid', name='main_output')(x)

最后,我们定义整个2输入,2输出的模型:

model = Model(inputs=[main_input, auxiliary_input], outputs=[main_output, auxiliary_output])

模型定义完毕,下一步编译模型。我们给额外的损失赋0.2的权重。我们可以通过关键字参数loss_weightsloss来为不同的输出设置不同的损失函数或权值。这两个参数均可为Python的列表或字典。这里我们给loss传递单个损失函数,这个损失函数会被应用于所有输出上。

  1. model.compile(optimizer='rmsprop', loss='binary_crossentropy',
  2. loss_weights=[1., 0.2])

编译完成后,我们通过传递训练数据和目标值训练该模型:

  1. model.fit([headline_data, additional_data], [labels, labels],
  2. epochs=50, batch_size=32)

因为我们输入和输出是被命名过的(在定义时传递了“name”参数),我们也可以用下面的方式编译和训练模型:

  1. model.compile(optimizer='rmsprop',
  2. loss={'main_output': 'binary_crossentropy', 'aux_output': 'binary_crossentropy'},
  3. loss_weights={'main_output': 1., 'aux_output': 0.2})
  4. # And trained it via:
  5. model.fit({'main_input': headline_data, 'aux_input': additional_data},
  6. {'main_output': labels, 'aux_output': labels},
  7. epochs=50, batch_size=32)

 

共享层

另一个使用函数式模型的场合是使用共享层的时候。

考虑微博数据,我们希望建立模型来判别两条微博是否是来自同一个用户,这个需求同样可以用来判断一个用户的两条微博的相似性。

一种实现方式是,我们建立一个模型,它分别将两条微博的数据映射到两个特征向量上,然后将特征向量串联并加一个logistic回归层,输出它们来自同一个用户的概率。这种模型的训练数据是一对对的微博。

因为这个问题是对称的,所以处理第一条微博的模型当然也能重用于处理第二条微博。所以这里我们使用一个共享的LSTM层来进行映射。

首先,我们将微博的数据转为(140,256)的矩阵,即每条微博有140个字符,每个单词的特征由一个256维的词向量表示,向量的每个元素为1表示某个字符出现,为0表示不出现,这是一个one-hot编码。

之所以是(140,256)是因为一条微博最多有140个字符,而扩展的ASCII码表编码了常见的256个字符。原文中此处为Tweet,所以对外国人而言这是合理的。如果考虑中文字符,那一个单词的词向量就不止256了。

  1. import keras
  2. from keras.layers import Input, LSTM, Dense
  3. from keras.models import Model
  4. tweet_a = Input(shape=(140, 256))
  5. tweet_b = Input(shape=(140, 256))

若要对不同的输入共享同一层,就初始化该层一次,然后多次调用它

  1. # This layer can take as input a matrix
  2. # and will return a vector of size 64
  3. shared_lstm = LSTM(64)
  4. # When we reuse the same layer instance
  5. # multiple times, the weights of the layer
  6. # are also being reused
  7. # (it is effectively *the same* layer)
  8. encoded_a = shared_lstm(tweet_a)
  9. encoded_b = shared_lstm(tweet_b)
  10. # We can then concatenate the two vectors:
  11. merged_vector = keras.layers.concatenate([encoded_a, encoded_b], axis=-1)
  12. # And add a logistic regression on top
  13. predictions = Dense(1, activation='sigmoid')(merged_vector)
  14. # We define a trainable model linking the
  15. # tweet inputs to the predictions
  16. model = Model(inputs=[tweet_a, tweet_b], outputs=predictions)
  17. model.compile(optimizer='rmsprop',
  18. loss='binary_crossentropy',
  19. metrics=['accuracy'])
  20. model.fit([data_a, data_b], labels, epochs=10)

先暂停一下,看看共享层到底输出了什么,它的输出数据shape又是什么


层“节点”的概念

无论何时,当你在某个输入上调用层时,你就创建了一个新的张量(即该层的输出),同时你也在为这个层增加一个“(计算)节点”。这个节点将输入张量映射为输出张量。当你多次调用该层时,这个层就有了多个节点,其下标分别为0,1,2...

在上一版本的Keras中,你可以通过layer.get_output()方法来获得层的输出张量,或者通过layer.output_shape获得其输出张量的shape。这个版本的Keras你仍然可以这么做(除了layer.get_output()output替换)。但如果一个层与多个输入相连,会出现什么情况呢?

如果层只与一个输入相连,那没有任何困惑的地方。.output将会返回该层唯一的输出

  1. a = Input(shape=(140, 256))
  2. lstm = LSTM(32)
  3. encoded_a = lstm(a)
  4. assert lstm.output == encoded_a

但当层与多个输入相连时,会出现问题

  1. a = Input(shape=(140, 256))
  2. b = Input(shape=(140, 256))
  3. lstm = LSTM(32)
  4. encoded_a = lstm(a)
  5. encoded_b = lstm(b)
  6. lstm.output

上面这段代码会报错

  1. >> AssertionError: Layer lstm_1 has multiple inbound nodes,
  2. hence the notion of "layer output" is ill-defined.
  3. Use `get_output_at(node_index)` instead.

通过下面这种调用方式即可解决

  1. assert lstm.get_output_at(0) == encoded_a
  2. assert lstm.get_output_at(1) == encoded_b

 

对于input_shapeoutput_shape也是一样,如果一个层只有一个节点,或所有的节点都有相同的输入或输出shape,那么input_shapeoutput_shape都是没有歧义的,并也只返回一个值。但是,例如你把一个相同的Conv2D应用于一个大小为(32,32,3)的数据,然后又将其应用于一个(64,64,3)的数据,那么此时该层就具有了多个输入和输出的shape,你就需要显式的指定节点的下标,来表明你想取的是哪个了

  1. a = Input(shape=(32, 32, 3))
  2. b = Input(shape=(64, 64, 3))
  3. conv = Conv2D(16, (3, 3), padding='same')
  4. conved_a = conv(a)
  5. # Only one input so far, the following will work:
  6. assert conv.input_shape == (None, 32, 32, 3)
  7. conved_b = conv(b)
  8. # now the `.input_shape` property wouldn't work, but this does:
  9. assert conv.get_input_shape_at(0) == (None, 32, 32, 3)
  10. assert conv.get_input_shape_at(1) == (None, 64, 64, 3)

更多的例子

代码示例依然是学习的最佳方式,这里是更多的例子

inception模型

inception的详细结构参见Google的这篇论文:Going Deeper with Convolutions

  1. from keras.layers import Conv2D, MaxPooling2D, Input
  2. input_img = Input(shape=(256, 256, 3))
  3. tower_1 = Conv2D(64, (1, 1), padding='same', activation='relu')(input_img)
  4. tower_1 = Conv2D(64, (3, 3), padding='same', activation='relu')(tower_1)
  5. tower_2 = Conv2D(64, (1, 1), padding='same', activation='relu')(input_img)
  6. tower_2 = Conv2D(64, (5, 5), padding='same', activation='relu')(tower_2)
  7. tower_3 = MaxPooling2D((3, 3), strides=(1, 1), padding='same')(input_img)
  8. tower_3 = Conv2D(64, (1, 1), padding='same', activation='relu')(tower_3)
  9. output = keras.layers.concatenate([tower_1, tower_2, tower_3], axis=1)

卷积层的残差连接

残差网络(Residual Network)的详细信息请参考这篇文章:Deep Residual Learning for Image Recognition

  1. from keras.layers import Conv2D, Input
  2. # input tensor for a 3-channel 256x256 image
  3. x = Input(shape=(256, 256, 3))
  4. # 3x3 conv with 3 output channels (same as input channels)
  5. y = Conv2D(3, (3, 3), padding='same')(x)
  6. # this returns x + y.
  7. z = keras.layers.add([x, y])

共享视觉模型

该模型在两个输入上重用了图像处理的模型,用来判别两个MNIST数字是否是相同的数字

  1. from keras.layers import Conv2D, MaxPooling2D, Input, Dense, Flatten
  2. from keras.models import Model
  3. # First, define the vision modules
  4. digit_input = Input(shape=(27, 27, 1))
  5. x = Conv2D(64, (3, 3))(digit_input)
  6. x = Conv2D(64, (3, 3))(x)
  7. x = MaxPooling2D((2, 2))(x)
  8. out = Flatten()(x)
  9. vision_model = Model(digit_input, out)
  10. # Then define the tell-digits-apart model
  11. digit_a = Input(shape=(27, 27, 1))
  12. digit_b = Input(shape=(27, 27, 1))
  13. # The vision model will be shared, weights and all
  14. out_a = vision_model(digit_a)
  15. out_b = vision_model(digit_b)
  16. concatenated = keras.layers.concatenate([out_a, out_b])
  17. out = Dense(1, activation='sigmoid')(concatenated)
  18. classification_model = Model([digit_a, digit_b], out)

视觉问答模型

在针对一幅图片使用自然语言进行提问时,该模型能够提供关于该图片的一个单词的答案

这个模型将自然语言的问题和图片分别映射为特征向量,将二者合并后训练一个logistic回归层,从一系列可能的回答中挑选一个。

  1. from keras.layers import Conv2D, MaxPooling2D, Flatten
  2. from keras.layers import Input, LSTM, Embedding, Dense
  3. from keras.models import Model, Sequential
  4. # First, let's define a vision model using a Sequential model.
  5. # This model will encode an image into a vector.
  6. vision_model = Sequential()
  7. vision_model.add(Conv2D(64, (3, 3), activation='relu', padding='same', input_shape=(224, 224, 3)))
  8. vision_model.add(Conv2D(64, (3, 3), activation='relu'))
  9. vision_model.add(MaxPooling2D((2, 2)))
  10. vision_model.add(Conv2D(128, (3, 3), activation='relu', padding='same'))
  11. vision_model.add(Conv2D(128, (3, 3), activation='relu'))
  12. vision_model.add(MaxPooling2D((2, 2)))
  13. vision_model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))
  14. vision_model.add(Conv2D(256, (3, 3), activation='relu'))
  15. vision_model.add(Conv2D(256, (3, 3), activation='relu'))
  16. vision_model.add(MaxPooling2D((2, 2)))
  17. vision_model.add(Flatten())
  18. # Now let's get a tensor with the output of our vision model:
  19. image_input = Input(shape=(224, 224, 3))
  20. encoded_image = vision_model(image_input)
  21. # Next, let's define a language model to encode the question into a vector.
  22. # Each question will be at most 100 word long,
  23. # and we will index words as integers from 1 to 9999.
  24. question_input = Input(shape=(100,), dtype='int32')
  25. embedded_question = Embedding(input_dim=10000, output_dim=256, input_length=100)(question_input)
  26. encoded_question = LSTM(256)(embedded_question)
  27. # Let's concatenate the question vector and the image vector:
  28. merged = keras.layers.concatenate([encoded_question, encoded_image])
  29. # And let's train a logistic regression over 1000 words on top:
  30. output = Dense(1000, activation='softmax')(merged)
  31. # This is our final model:
  32. vqa_model = Model(inputs=[image_input, question_input], outputs=output)
  33. # The next stage would be training this model on actual data.

视频问答模型

在做完图片问答模型后,我们可以快速将其转为视频问答的模型。在适当的训练下,你可以为模型提供一个短视频(如100帧)然后向模型提问一个关于该视频的问题,如“what sport is the boy playing?”->“football”

  1. from keras.layers import TimeDistributed
  2. video_input = Input(shape=(100, 224, 224, 3))
  3. # This is our video encoded via the previously trained vision_model (weights are reused)
  4. encoded_frame_sequence = TimeDistributed(vision_model)(video_input) # the output will be a sequence of vectors
  5. encoded_video = LSTM(256)(encoded_frame_sequence) # the output will be a vector
  6. # This is a model-level representation of the question encoder, reusing the same weights as before:
  7. question_encoder = Model(inputs=question_input, outputs=encoded_question)
  8. # Let's use it to encode the question:
  9. video_question_input = Input(shape=(100,), dtype='int32')
  10. encoded_video_question = question_encoder(video_question_input)
  11. # And this is our video question answering model:
  12. merged = keras.layers.concatenate([encoded_video, encoded_video_question])
  13. output = Dense(1000, activation='softmax')(merged)
  14. video_qa_model = Model(inputs=[video_input, video_question_input], outputs=output)

转自:https://keras-cn.readthedocs.io/en/latest/getting_started/functional_API/

函数式模型接口 
Keras的函数式模型为Model,即广义的拥有输入和输出的模型,我们使用Model来初始化一个函数式模型。

  1. from keras.models import Model 
  2. from keras.layers import Input, Dense
  3. a = Input(shape=(32,)) 
  4. b = Dense(32)(a) 
  5. model = Model(inputs=a, outputs=b)

 

在这里,我们的模型以a为输入,以b为输出,同样我们可以构造拥有多输入和多输出的模型。 
model = Model(inputs=[a1, a2], outputs=[b1, b3, b3])

常用Model属性 
● model.layers:组成模型图的各个层 
● model.inputs:模型的输入张量列表 
● model.outputs:模型的输出张量列表

Model模型方法 
compile(self, optimizer, loss, metrics=None, loss_weights=None, sample_weight_mode=None)

本函数编译模型以供训练,参数有 
● optimizer:优化器,为预定义优化器名或优化器对象,参考优化器 
● loss:损失函数,为预定义损失函数名或一个目标函数,参考损失函数 
● metrics:列表,包含评估模型在训练和测试时的性能的指标,典型用法是metrics=[‘accuracy’]如果要在多输出模型中为不同的输出指定不同的指标,可像该参数传递一个字典,例如metrics={‘ouput_a’: ‘accuracy’} 
● sample_weight_mode:如果你需要按时间步为样本赋权(2D权矩阵),将该值设为“temporal”。默认为“None”,代表按样本赋权(1D权)。如果模型有多个输出,可以向该参数传入指定sample_weight_mode的字典或列表。在下面fit函数的解释中有相关的参考内容。 
● kwargs:使用TensorFlow作为后端请忽略该参数,若使用Theano作为后端,kwargs的值将会传递给 K.function 
当为参数传入非法值时会抛出异常

fit(self, x=None, y=None, batch_size=32, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0)

本函数用以训练模型,参数有: 
● x:输入数据。如果模型只有一个输入,那么x的类型是numpy array,如果模型有多个输入,那么x的类型应当为list,list的元素是对应于各个输入的numpy array。如果模型的每个输入都有名字,则可以传入一个字典,将输入名与其输入数据对应起来。 
● y:标签,numpy array。如果模型有多个输出,可以传入一个numpy array的list。如果模型的输出拥有名字,则可以传入一个字典,将输出名与其标签对应起来。 
● batch_size:整数,指定进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。 
● nb_epoch:整数,训练的轮数,训练数据将会被遍历nb_epoch次。Keras中nb开头的变量均为”number of”的意思 
● verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录 
● callbacks:list,其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数 
● validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。注意,validation_split的划分在shuffle之后,因此如果你的数据本身是有序的,需要先手工打乱再指定validation_split,否则可能会出现验证集样本不均匀。 
● validation_data:形式为(X,y)或(X,y,sample_weights)的tuple,是指定的验证集。此参数将覆盖validation_spilt。 
● shuffle:布尔值,表示是否在训练过程中每个epoch前随机打乱输入样本的顺序。 
● class_weight:字典,将不同的类别映射为不同的权值,该参数用来在训练过程中调整损失函数(只能用于训练)。该参数在处理非平衡的训练数据(某些类的训练样本数很少)时,可以使得损失函数对样本数不足的数据更加关注。 
● sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode=’temporal’。 
● initial_epoch: 从该参数指定的epoch开始训练,在继续之前的训练时有用。 
输入数据与规定数据不匹配时会抛出错误 
fit函数返回一个History的对象,其History.history属性记录了损失函数和其他指标的数值随epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

本函数按batch计算在某些输入数据上模型的误差,其参数有: 
● x:输入数据,与fit一样,是numpy array或numpy array的list 
● y:标签,numpy array 
● batch_size:整数,含义同fit的同名参数 
● verbose:含义同fit的同名参数,但只能取0或1 
● sample_weight:numpy array,含义同fit的同名参数 
本函数返回一个测试误差的标量值(如果模型没有其他评价指标),或一个标量的list(如果模型还有其他的评价指标)。model.metrics_names将给出list中各个值的含义。 
如果没有特殊说明,以下函数的参数均保持与fit的同名参数相同的含义 
如果没有特殊说明,以下函数的verbose参数(如果有)均只能取0或1

predict(self, x, batch_size=32, verbose=0)

本函数按batch获得输入数据对应的输出,其参数有: 
函数的返回值是预测值的numpy array

train_on_batch(self, x, y, class_weight=None, sample_weight=None)

本函数在一个batch的数据上进行一次参数更新 
函数返回训练误差的标量值或标量值的list,与evaluate的情形相同。

test_on_batch(self, x, y, sample_weight=None)

本函数在一个batch的样本上对模型进行评估 
函数的返回与evaluate的情形相同

predict_on_batch(self, x)

本函数在一个batch的样本上对模型进行测试 
函数返回模型在一个batch上的预测结果

fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)

利用Python的生成器,逐个生成数据的batch并进行训练。生成器与模型将并行执行以提高效率。例如,该函数允许我们在CPU上进行实时的数据提升,同时在GPU上进行模型训练 
函数的参数是: 
● generator:生成器函数,生成器的输出应该为: 
○ 一个形如(inputs,targets)的tuple 
○ 一个形如(inputs, targets,sample_weight)的tuple。所有的返回值都应该包含相同数目的样本。生成器将无限在数据集上循环。每个epoch以经过模型的样本数达到samples_per_epoch时,记一个epoch结束 
● steps_per_epoch:整数,当生成器返回steps_per_epoch次数据时计一个epoch结束,执行下一个epoch 
● epochs:整数,数据迭代的轮数 
● verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录 
● validation_data:具有以下三种形式之一 
○ 生成验证集的生成器 
○ 一个形如(inputs,targets)的tuple 
○ 一个形如(inputs,targets,sample_weights)的tuple 
● validation_steps: 当validation_data为生成器时,本参数指定验证集的生成器返回次数 
● class_weight:规定类别权重的字典,将类别映射为权重,常用于处理样本不均衡问题。 
● sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode=’temporal’。 
● workers:最大进程数 
● max_q_size:生成器队列的最大容量 
● pickle_safe: 若为真,则使用基于进程的线程。由于该实现依赖多进程,不能传递non picklable(无法被pickle序列化)的参数到生成器中,因为无法轻易将它们传入子进程中。 
● initial_epoch: 从该参数指定的epoch开始训练,在继续之前的训练时有用。 
函数返回一个History对象 
例子

  1. def generate_arrays_from_file(path):
  2.     while 1:
  3.     f = open(path)
  4.     for line in f:
  5.         # create numpy arrays of input data
  6.         # and labels, from each line in the file
  7.         x1, x2, y = process_line(line)
  8.         yield ({'input_1': x1, 'input_2': x2}, {'output': y})
  9.     f.close()
  10. model.fit_generator(generate_arrays_from_file('/my_file.txt'),
  11.         steps_per_epoch=10000, epochs=10)



evaluate_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False)

本函数使用一个生成器作为数据源,来评估模型,生成器应返回与test_on_batch的输入数据相同类型的数据。 
函数的参数是: 
● generator:生成输入batch数据的生成器 
● val_samples:生成器应该返回的总样本数 
● steps:生成器要返回数据的轮数 
● max_q_size:生成器队列的最大容量 
● nb_worker:使用基于进程的多线程处理时的进程数 
● pickle_safe:若设置为True,则使用基于进程的线程。注意因为它的实现依赖于多进程处理,不可传递不可pickle的参数到生成器中,因为它们不能轻易的传递到子进程中。

fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)

从一个生成器上获取数据并进行预测,生成器应返回与predict_on_batch输入类似的数据 
函数的参数是: 
● generator:生成输入batch数据的生成器 
● val_samples:生成器应该返回的总样本数 
● max_q_size:生成器队列的最大容量 
● nb_worker:使用基于进程的多线程处理时的进程数 
● pickle_safe:若设置为True,则使用基于进程的线程。注意因为它的实现依赖于多进程处理,不可传递不可pickle的参数到生成器中,因为它们不能轻易的传递到子进程中。

转自:https://blog.csdn.net/hanshuobest/article/details/77391073 
 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/133387
推荐阅读
相关标签
  

闽ICP备14008679号