当前位置:   article > 正文

Transformer具体如何进行机器翻译_transformer机器翻译

transformer机器翻译

Transformer最具体形象的例子就是做机器翻译了,搞懂这个再去理解其他用Transformer做的下游任务就更方便了,比如时间序列预测,你搞不懂Encoder/Decoder的数据怎么喂进去的,怎么编码的,为什么编码,那不是就有点本末倒置了,基础都没get,现在的文章大部分都是直接给模型理解,没讲清楚整体流程,这篇文章的目的就是讲清楚整个流程。

链接1看Encoder-decoder如何机器翻译这个看懂了,再看森哥的Transformer,再看看官方开源代码,整体概念与实现细节就差不多了,多练,忘了回来反复看。

PPT看这个就够了

DeepLearning/9_RNN_6.pdf at master · wangshusen/DeepLearning · GitHub

视频看森哥就够了

RNN模型与NLP应用(7/9):机器翻译与Seq2Seq模型_哔哩哔哩_bilibili基础流程还得看森哥的视频

 

 

 

 

 

 

 

 

 

参考资料

6_机器翻译与Seq2Seq模型_IT-cute的博客-CSDN博客

用Pytorch和transformer实现机器翻译_哔哩哔哩_bilibili//代码讲解

拆 Transformer 系列一:Encoder-Decoder 模型架构详解 - 知乎//讲特别清楚

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/653520
推荐阅读
相关标签
  

闽ICP备14008679号