赞
踩
“10b”、“13b”、“70b” 等术语通常指的是大型神经网络模型的参数数量。其中的 “b” 代表 “billion”,也就是十亿。表示模型中的参数量,每个参数用来存储模型的权重和偏差等信息。例如:
10b
” 意味着模型有大约 100 亿
个参数。例如:Meta 开发并公开发布的 Llama 2 系列大型语言模型 (LLM),这是一组经过预训练和微调的生成文本模型,参数规模从
70 亿(7b)
到700 亿(70b)
不等。经过微调的 LLMs(称为 Llama-2-Chat)针对对话场景进行了优化。
输入 仅输入文本 输出 仅生成文本 模型架构 Llama 2 是一种使用优化的 Transformer 架构的自回归语言模型。调整后的版本使用监督微调(SFT)和带有人类反馈的强化学习(RLHF)来适应人类对有用性和安全性的偏好。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。