赞
踩
在学习Transformer之前,需要掌握Attention机制、Encoder-Decoder、Self-Attention机制的基础知识,可以参考本人的博客注意力机制Attention详解,在掌握了本文内容之后,可以阅读论文 《Attention is all you need》 ,这是谷歌团队在2017年发表的论文,也是首次提出Transformer,本人在阅读后的笔记:Attention Is All You Need-笔记,有不足之处欢迎大家评论指出【
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/349799
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。