赞
踩
本文是LLM系列文章,针对《Large Language Models: A Survey》的翻译。
自2022年11月ChatGPT发布以来,大型语言模型(LLM)因其在广泛的自然语言任务中的强大性能而备受关注。LLM的通用语言理解和生成能力是通过在大量文本数据上训练数十亿模型的参数来获得的,正如缩放定律所预测的那样。LLM的研究领域虽然很新,但正在以许多不同的方式迅速发展。在本文中,我们回顾了一些最著名的LLM,包括三个流行的LLM家族(GPT、LLaMA、PaLM),并讨论了它们的特点、贡献和局限性。我们还概述了为构建和增强LLM而开发的技术。然后,我们调查了为LLM训练、微调和评估准备的流行数据
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。