赞
踩
通常,embedding是指学习出来的encoding,是将位置信息“嵌入”到某个空间的意思。例如,bert的位置编码是学出来的,所以称为position embedding
而transformer的位置编码是用三角函数直接算出来的(当然,论文中说也可以学出来,效果差不多,所以最后还是采用了直接编码),不涉及嵌入的思想,所以叫position encoding
embedding的方式存在序列长度的限制,position可以理解通过lookup的方式得到,超过了训练时最大长度,就无法识别了;这种方式也被验证相对于位置编码效果更好,因此BERT和GPT都采用了这种方式。
encoding的方式就不受最大序列长度的约束
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。