当前位置:   article > 正文

【深度学习】Transformer之Masked Multi-Head Attention_transformer masked muti-head

transformer masked muti-head

一、作用

  • 信息泄露:如果在训练中使用未来位置的信息(例如,右侧的单词),模型会作弊,因为在实际推理过程中我们无法提前知道未来的信息。
  • 增量更新:我们希望对于重复的单词,预测结果时一样的,并且每个预测结果只使用左侧的信息,不使用右侧的信息。

二、具体过程

在这里插入图片描述

  1. 先看 q 0 q_0 q0, 屏蔽 x 1 , x 2 x_1, x_2 x1,x2的k。
    在这里插入图片描述
  2. 再看 q 1 q_1 q1,屏蔽 x 2 x_2 x2

在这里插入图片描述
3. 再看 q 2 q_2 q2, 都不屏蔽。
在这里插入图片描述

三、简略过程

在这里插入图片描述
b 1 b_1 b1 a 1 a_1 a1生成
b 2 b_2 b2 a 1 , a 2 a_1, a_2 a1,a2生成
b 3 b_3 b3 a 1 , a 2 , a 3 a_1, a_2, a_3 a1,a2,a3生成
b 4 b_4 b4 a 1 , a 2 , a 3 , a 4 a_1, a_2, a_3, a_4 a1,a2,a3,a4生成

四、具体例子解释(这个解释有些问题,欢迎大家评论留言)

在这里插入图片描述
由 我 -> 爱,北京,天安门
由 我,爱 -> 北京,天安门
由 我,爱,北京 -> 天安门

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/342622
推荐阅读
相关标签
  

闽ICP备14008679号