赞
踩
之前有写过attention和transformer的理解,但是对于self attention中的qkv一直理解的不够透彻,直到今天看了李宏毅的视频才理解,所以记录一下。
所谓QKV也就是Q(Query),K(Key),V(Value)
首先回顾一下self-attention做的是什么:
所以怎么办到这一点呢?这就是QKV的用处所在:
参考链接:B站-李宏毅2020深度学习
推荐阅读:知乎-超详细图解Self-Attention
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。