赞
踩
LLaMA 2-CHAT与OpenAI ChatGPT效果一样好。LLaMA 2与LLaMA 1架构相同,LLaMA 2训练数据是2000000000000个tokens,还是用了1000000个人类新标注的数据。上下文长度由2048提升为4096。
本教程提供两种下载方式:
1官方下载脚本下载
2hugging face网站下载
https://ai.meta.com/resources/models-and-libraries/llama-downloads/
我申请后秒通过,邮件中会有一个很长的URL。https://download.llamameta.net/ 开头。
首先下载下官方代码
https://github.com/facebookresearch/llama
下载后如下图所示,其中有download.sh,就是我们下载模型使用的Linux shell 脚本
在Linux终端中进入llama目录,输入./download.sh
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。