赞
踩
这篇文章内容很简单,作者对最近发布的 【1】T5模型应用data-to-text领域的数据进行微调,发现在WebNLG,MultiWoz,ToTTo三个数据集上都优于目前的性能;作者提出可能这种只采用预训练模型,不需要进行现在文本生成领域流行的规划生成【2】【3】,词约束和复制机制方法,同样也能取得比较好的文本生成效果;
实验T5模型:Small (60 million parameters), Base (220 million), Large (770 million) and 3B (3 billion).
Finetune:5K step MultiWoz 和 WebNLG;10K steps for ToTTo
所有参数更新在finetune过程;
T5词表词数:32000个句子
lr:0.001
Decoding:greedy search
Metric:使用【4】sacrebleu计算BLEU
1.MultiWoz:task oriented dialogue
2.ToTTo:tabke-to-text
3.WebNLG:graph-to-text
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。