赞
踩
目录
谷歌公司的研究人员提出的 T5(Text-to-Text Transfer Transformer,有5个T开头的单词,所以叫做T5)模型采用了一种与前述模型截然不同的策略:将不同形式的任务统一转化为条件式生成任务。这样一来,只需要一个统一的“文本到文本”生成模型,就可以使用同样的训练方法与解码过程完成不同的自然语言处理任务,而无须针对不同任务设计不同的模型结构与训练方法。与此同时,这种“大一统”模型还能够极大地降低不同任务之间迁移学习与多任务学习的难度。
由于不同的任务已经被统一成文本生成的形式,所以T5模型可以使用任意序列到序列的生成模型结构。例如,BART模型使用的编码器--解码器结构、单向语言模型和UniLM中的序列到序列模型。实验表明,编码器--解码器结构表现相对更好。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。