当前位置:   article > 正文

太强了!LIama 3.1正式发布

liama3.1

 Datawhale干货 

编辑:量子位、Datawhale

刚刚,LIama 3.1正式发布,登上大模型王座!

在150多个基准测试集中,405B版本的表现追平甚至超越了现有SOTA模型GPT-4o和Claude 3.5 Sonnet。

也就是说,这次,最强开源模型即最强模型

06a852d61a5e9571e5191da2fc0ff897.png

各大云厂商也在第一时间上线了的Llama 3.1的支持,价格是酱婶的:

1054f8b2c9c863d2431a4416d4c563b6.png

LIama 3.1官方正式发布

首先来看模型能力。

Llama 3.1将上下文长度扩展到 128K、增加了对八种语言的支持。

其中超大杯405B版本,在常识、可操纵性、数学、工具使用和多语言翻译等能力方面都追平、超越了现有顶尖模型。

96d43a5d8889f1e080b3733586a06e1a.png
fd142baa7afba1d42a6fe7c9f6c8fa34.png

除此之外,也推出了8B和70B模型的升级版本,能力与同等参数下的顶尖模型基本持平。

923099f34da9a376130395f38ae1af81.png

再来看模型架构

官方介绍,要在超15万亿个token上训练 Llama 3.1 405B模型挑战不小。

为此他们大幅优化了整个训练栈,并把模型算力规模首次扩展到了超过16000个H100 GPU。

5799e2819507c6d4f407765e47a78a53.png

具体来说,还是采用标准的仅解码器的Transformer架构,并做一些细微改动;并采用迭代的post-traing流程,每轮都有SFT(监督微调)和DPO(直接偏好优化),以提高每个能力的性能。

与Llama以前的版本相比,他们提高了用于预训练和post-training数据的数量和质量。

而为了支持405B这样尺寸模型的大规模生产推理,Meta将模型从16位(BF16)量化到8位(FP8)数值,有效地降低了所需的计算需求,并允许模型在单个服务器节点内运行。

指令微调方面,Meta还提高了模型对用户指令的响应能力、增强了它遵循详细指令的能力,同时保证安全性。

在post-training阶段,Meta在预训练模型的基础上进行多轮对齐。

每一轮都包括监督微调(Supervised Fine-Tuning, SFT)、拒绝采样(Rejection Sampling, RS)和直接偏好优化(Direct Preference Optimization, DPO)。

他们使用合成数据生成来绝大部分SFT示例,并数次迭代。

此外,还采用了多种数据处理技术来将这些合成数据过滤到最高质量。

总计15T tokens使用Llama 2模型做清理和过滤,而代码和数学相关的数据处理流水线则主要借鉴了Deepseek的方法。

f0b463e2fc4e5df5911474140d4500c2.png

除了最基本的根据提示词响应,Meta官方表示,任何普通开发者可以用它做些高级的事情,比如:

  • 实时和批量推理

  • 监督微调

  • 针对特定应用评估模型

  • 持续预训练

  • 检索增强生成 (RAG)

  • 函数调用

  • 合成数据生成

而这背后也是由它的强大生态伙伴支持。

357838661a7679ae11887523cfa4458c.png

Datawhale发布Llama3.1 部署及微调教程

9bff1b63f70f31a25d10fcb22aa28815.jpeg

开源地址:https://github.com/datawhalechina/self-llm/tree/master/models/Llama3_1

参考链接:
[1]https://about.fb.com/news/2024/07/open-source-ai-is-the-path-forward/
[2]https://ai.meta.com/blog/meta-llama-3-1/

32199bdca717e4ac54542cf6a823dd3e.png

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号