当前位置:   article > 正文

部分data2text模型整理_data 2 text

data 2 text

Learning Neural Templates for Text Generation

  1. 本文主要是对decoder进行了改进,使用隐半马尔科夫HSMM模型作为解码器,并用神经网络实现其中所有概率项的参数化。
  2. 在完成模型训练后,可以利用Viterbi算法推断出隐状态序列,并将其获取为模板,因此可以很方便地对模板进行控制并利用模板引导下一步的文本生成。
  3. 性能可以和E2E模型媲美,而且解释性及可控性更强。

Challenges in Data-to-document Generation

  1. 作者采集了大量NBA篮球比赛统计数据以及对应的文字战报,以此发布了新的数据集RotoWire。文本长度更长,可以对输入信息进行一定推理。
  2. 存在逻辑错误,在长文本生成时更加严重
  3. 提出了一种抽取式评价方法,一定程度上弥补BLEU不足

A Deep Ensemble Model with Slot Alignment for Sequence-to-Sequence Natural Language Generation

  1. E2E挑战赛中表现最好的模型。
  2. 亮点包括
    1. 去噪。通过自行构建的启发式slot aligner,剔除训练数据中一些没有被对应文本提及的属性值;
    2. 重排。根据候选文本同数据属性槽的对其结果重新设计排序规则
  3. 模型整体表现非常稳定,输出文本错误较少

End-to-End Content and Plan Selection for Data-to-Text Generation

  1. 在经典seq2seq模型上引入多个解码器,并通过隐变量因子来指定最
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/人工智能uu/article/detail/828604
推荐阅读
相关标签
  

闽ICP备14008679号