当前位置:   article > 正文

pytorch之诗词生成6--eval

pytorch之诗词生成6--eval

先上代码:

  1. import tensorflow as tf
  2. from dataset import tokenizer
  3. import settings
  4. import utils
  5. # 加载训练好的模型
  6. model = tf.keras.models.load_model(r"E:\best_model.h5")
  7. # 随机生成一首诗
  8. print(utils.generate_random_poetry(tokenizer, model))
  9. # 给出部分信息的情况下,随机生成剩余部分
  10. print(utils.generate_random_poetry(tokenizer, model, s='深山夕照深秋雨'))
  11. # 生成藏头诗
  12. print(utils.generate_acrostic(tokenizer, model, head='深山夕照深秋雨'))

我们需要做的工作已经做完了,模型也已经训练好了,剩下的就是我们把我们的模型放到实际应用之中去了。

先看:

model = tf.keras.models.load_model(r"E:\best_model.h5")

这段代码使用了tensorflow中的tf.keras.models.load_model函数,加载一个预训练好的模型,这种加载预训练模型的例子很常见,在我们之前提到的风格迁移项目中,我们就加载预训练模型对我们的图片特征进行提取。

  •  tf.keras.models是tensorflow中用于构建和训练神经网络模型的模块。
  • load_model是tf.keras.models模块中的一个函数,用于从磁盘中加载保存好的预训练模型。我们的参数是一个模型文件或文件名,使用r前缀表示字符串是一个原始字符串,可以包含反斜杠\而无需进行转义。

这段代码的作用是将预训练模型加载到变量model中,以便后续使用该模型进行古诗生成或其他任务,加载的模型可以是之前使用的TensorFlow训练得到的模型,也可以是由其他方法训练得到的模型,加载模型之后,可以使用model变量调用模型的方法和属性。(其余方法如我们在图像识别项目中使用的save_model方法,使用save_model.save函数来保存模型参数,使用save_model.load函数来加载模型参数)。

接下来就是进行古诗的生成了:

print(utils.generate_random_poetry(tokenizer, model))

只是传递分词器和我们的模型表示只进行随机的诗词生成。

print(utils.generate_random_poetry(tokenizer, model, s='深山夕照深秋雨'))

除上述传递的参数之外,额外传递s表示传递第一句,会跟着第一句往后进行诗词的生成,在这里,由于我们使用的是循环神经网络(RNN) ,所以我们后面生成的诗词与我们提供的第一句是有很强的关联性的。

print(utils.generate_acrostic(tokenizer, model, head='深山夕照深秋雨'))

最后我们传递的参数改成藏头诗,我们传递的head将被分成一个个词,并对每个词进行相应的生成,然后将得到的结果组合在一起,形成完整的诗词,当然,我们对每个词进行生成的时候不止简单的考虑到我们head所提供的第一个词,而是考虑到前面已经生成的词。这样使全文就有一定的关联性。

最后我们来演示我们的模型效果:

我们给定的第一句是“深山夕照深秋雨”,包括藏头也是“深山夕照深秋雨”。

总体来看效果还是不错的,我们继续生成一首:

有些同学可能会发愁找不到相关的诗词资源,在这里我已经将相关资源传上去了。分别是进行诗词训练的数据集,便于同学们更加直观的感受训练过程,理解数据对深度学习的重要作用,还有预训练权重,可以直接用于模型。

至于训练数据,请查看我的文章http://t.csdnimg.cn/mF4lm

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号