当前位置:   article > 正文

LLM-202210:GLM【开源双语预训练语言模型】_glm与llm

glm与llm

《GLM: General Language Model Pretraining with Autoregressive Blank Infilling》

 

《GLM-130B: An open bilingual pre-trained model》

一、简介

已经有各种类型的预训练架构,包括自编码模型(如BERT),自回归模型(如GPT),以及编码器-解码器模型(如T5)。然而,没有一个预训练框架对包括自然语言理解(NLU)、无条件生成和有条件生成在内的三个主要类别的所有任务表现最好。我们提出了一

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/711292
推荐阅读
相关标签
  

闽ICP备14008679号