当前位置:   article > 正文

浅谈GPT-2_gpt2的优点

gpt2的优点

GPT-2
自google在2018年10月底公布BERT在11项NLP任务中的卓越表现后,BERT(Bidirectional Encoder Representation from Transformers)就成为NLP领域大火、整个ML界略有耳闻的模型。在统治人工智能界长达4个月后,bert终于迎来了一个新的“对手”——GPT-2(openAI产品)。

 

GPT-2模型
最近在做一个项目,其中用到了GPT-2,因此对它深入研究了一下^ ^。
我一共看了2个版本的GPT-2模型源代码,一个是德国学生书写的,另一个是集成在pytorch_transformers中的。这两个模型完全相同的,但德国学生版本的代码更容易阅读、学习。

 

模型浅谈
GPT-2和bert都是基于transformer的模型,两者的结构几乎完全相同。

 


不同点有2点:

bert是输入完整数据序列,然后通过一系列的相似性比对和加权,使句子成为一个整体,句子中的每个单位都一定程度的关联着整体信息。GPT-2则不同,它是输入一个词预测下一个,然后输入二个词预测之后的一个……
GPT-2每一层的自注意层都比bert都多了二个神经网络全连接。它们分别在每个自注意层的头尾部,并且数据进入自注意层前的神经网络时加了归一化。

 


个人感觉若是bert学的666,GPT-2很容易上手的。

 


————————————————
版权声明:本文为CSDN博主「Nuspen」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Nuspen/article/details/103599125

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/591609
推荐阅读
相关标签
  

闽ICP备14008679号