当前位置:   article > 正文

【LLM大模型】Llama3.1技术报告解读_llama3.1文本长度设置

llama3.1文本长度设置

模型架构

Llama3.1共开源了8B、70B、405B三种参数量的模型,三个模型具体信息如下图,其中405B除了BF16精度,还有FP8量化版模型,针对8B额外开源了经过内容安全分类微调的Llama-Guard-3-8B。

主要看点总结如下:

  1. Llama3.1 405B依然使用decoder-only结构的transformer,没有使用混合专家。

  2. 词表大小是128256,和Llama3一样。rope_theta是500000,和Llama3也一样。

3.最大生成上下文长度从Llama3的8192,增加到131072

  1. 在语言模型后训练阶段(本文最后面有最新版的Llama训练思路),405B通过监督微调和直接偏好优化等,进一步提升了模型的性能和适应性。监督微调使用大量的人工标注数据来微调模型,使其能够更好地遵循人类的指令和偏好;直接偏好优化则通过学习人类的偏好来优化模型的输出,使其更加符合人类的期望。

  2. 对于小参数量模型,Meta使用405B模型去提升小参数量模型的效果。

在这里插入图片描述

Llama3.1 模型具体参数(纠正一下图里405B模型的Key/Value Heads数量是16)

重要:纠正一下图里405B模型的Key/Value Heads数量是16

模型效果

llama3.1模型效果再150多个数据集中进行了测试,同时也进行了人工测试。

实验表明,最大的405B模型与业界最好的闭源模型GPT-4, GPT-4o, and Claude 3.5 Sonnet性能不相上下。

小参数量8B和70B模型与参数量相当的闭源模型也有竞争力。

在这里插入图片描述

Llama3.1 405B数据集评测结果

在这里插入图片描述

Llama3.1 8B/70B数据集评测结果

在这里插入图片描述

Llama3.1 405B人工评估

Llama System

开源了推理系统(meta-llama/llama-agentic-system: Agentic components of the Llama Stack APIs (github.com)

),可以方便的再本地运行Llama,该系统由社区共建。

Llama3训练思路(更新至2024/07/23):

链接: https://pan.baidu.com/s/1XyWmeC4HIP-aY0vDjqbCUg?pwd=h792 提取码: h792

模型下载链接: meta-llama/Meta-Llama-3.1-405B · Hugging Face(名字、公司等信息填写国外的,审核大概需要1-2天)

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等,

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/1017727
推荐阅读
相关标签