赞
踩
AR语言模型(AutoRegressive LM):只能获取单向信息,即只能前向读取信息并预测t位置的单词或者从后向读取信息并预测t位置的单词,却不能同时获取双向信息,代表例子是GPT,GPT2,XLNet,ELMO
AR LM的优点:比较擅长生成类任务
缺点:只能获取单向信息,不能获取双向信息。
在ELMO/BERT出来之前,大家通常讲的语言模型其实是根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务,或者反过来也行,就是根据下文预测前面的单词,这种类型的LM被称为自回归语言模型。
GPT 就是典型的自回归语言模型。ELMO尽管看上去利用了上文,也利用了下文,但是本质上仍然是自回归LM,这个跟模型具体怎么实现有关系。ELMO是做了两个方向(从左到右以及从右到左两个方向的语言模型),但是是分别有两个方向的自回归LM,然后把LSTM的两个方向的隐节点状态拼接到一起,来体现双向语言模型这个事情的。所以其实是两个自回归语言模型的拼接,本质上仍然是自回归语言模型。
自回归语言模型有优点有缺点,缺点是只能利用上文或者下文的信息,不能同时利用上文和下文的信息,貌似ELMO这种双向都做,然后拼接看上去能够解决这个问题,因为融合模式过于简单,所以效果其实并不是太好。
优点,跟下游NLP任务有关,比如生成类NLP任务,比如文
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。