赞
踩
作者:禅与计算机程序设计艺术
文本生成,又称文本摘要、机器翻译、自动摘要等,是NLP(自然语言处理)的一个分支领域,旨在通过对输入文本进行深度学习、自动推断、优化或概括的方式,生成新的输出文本。文本生成有着广泛的应用场景,包括新闻自动报道、对话系统生成回复、搜索引擎结果页面描述、文档摘要提取、聊天机器人回复、语音合成等。近年来,基于深度学习的文本生成技术取得了越来越好的效果,取得了巨大的商业价值。
对于文本生成,目前有两种主要方法:Seq2Seq 模型和 Transformer 模型。Seq2Seq 模型(Sequence to Sequence model,即序列到序列模型)根据输入序列生成输出序列,其中最常见的一种 Seq2Seq 模型就是编码器-解码器结构(Encoder-Decoder Architecture)。Transformer 模型是一种最新且强大的自注意力机制(Self-Attention Mechanism)的 Seq2Seq 模型,它可以在并行计算中高效地实现复杂的转换。
本文将围绕 Seq2Seq 和 Transformer 模型,分享如何实现深度学习文本生成模型,并利用 GPT-2 模型、BERT 模型及 XLNet 模型实现文本生成任务。
Seq2Seq模型的基本结构是一个Encoder和一个Decoder组成的编码器-解码器结构。如下图所示:
Encoder接收输入序列x,经过一系列层的编码处理后,得到
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。