当前位置:   article > 正文

论文阅读:Text-to-Text Pre-Training for Data-to-Text Tasks

text-to-text pre-training for data-to-text tasks

文章简介:

这篇文章内容很简单,作者对最近发布的 【1】T5模型应用data-to-text领域的数据进行微调,发现在WebNLG,MultiWoz,ToTTo三个数据集上都优于目前的性能;作者提出可能这种只采用预训练模型,不需要进行现在文本生成领域流行的规划生成【2】【3】,词约束和复制机制方法,同样也能取得比较好的文本生成效果;

主要内容:

预训练:

实验T5模型:Small (60 million parameters), Base (220 million), Large (770 million) and 3B (3 billion).

Finetune:5K step MultiWoz 和 WebNLG;10K steps for ToTTo
所有参数更新在finetune过程;

实验:

实验准备:

T5词表词数:32000个句子
lr:0.001
Decoding:greedy search
Metric:使用【4】sacrebleu计算BLEU

数据集:

1.MultiWoz:task oriented dialogue
2.ToTTo:tabke-to-text
3.WebNLG:graph-to-text

实验结果:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/正经夜光杯/article/detail/828623
推荐阅读
相关标签
  

闽ICP备14008679号