当前位置:   article > 正文

生成式大语言模型论文导读

生成式大语言模型论文导读

当下,最火的人工智能无疑就是生成式大模型,包括纯大语言模型和多模态模型,所以本次也抱着学习的态度,以大模型发展的时间线来对主要节点的一些生成式语言模型的论文进行分享(论文和分享内容会动态更新)。
在这里插入图片描述

分享目录

transformer原理-Attention Is All You Need -2017(待补充)
GPT-1原理-Improving Language Understanding by Generative Pre-Training -2018
BERT原理-Pre-training of Deep Bidirectional Transformers for Language Understanding -2018
GPT-2原理-Language Models are Unsupervised Multitask Learners -2019
T5原理-Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer -2019(待补充)
GPT-3原理-Language Models are Few-Shot Learners -2019(待补充)
【动态更新中】

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/347782
推荐阅读
相关标签
  

闽ICP备14008679号