当前位置:   article > 正文

在linux上下载llama3-8B模型权重_下载meta-llama-3-8b权限

下载meta-llama-3-8b权限

下载llama3-8B模型权重

喵两句

Meta公司在前不久发布了llama3开源大语言模型,今天介绍一下如何通过huggingface-cli命令行工具下载模型8B参数量的模型权重文件。

从huggingface上下载模型权重

  1. 登录huggingface网站,网址是https://huggingface.co/;
  2. 找到meta-llama/Meta-Llama-3-8B模型库,点击左上角复制按钮,复制模型仓库名称;
    llama3-8B预训练模型
  3. 点击右上角个人头像,点击settings,页面跳转后点击左边列Access Tokens,获取你专属的连接huggingface网站的token,后面登录会用到;
  4. 在Linux服务器上用conda创一个python环境,并安装huggingface-cli命令行工具;
    pip install --upgrade huggingface_hub
    
    • 1
  5. 在linux服务器上的/etc/profile(~/.bash_profile也可以,是给当前用户设置环境变量;/etc/profile是给任意linux用户设置共用的环境变量,即系统环境变量)文件中,添加hf-mirror镜像代理地址,添加完后记得source /etc/profile;
    export HF_ENDPOINT=https://hf-mirror.com
    
    • 1
  6. 在linux服务器下命令,登录huggingface网站;
    huggingface-cli login --token <你刚才复制的帐号token>
    
    • 1
  7. 使用命令行下载模型权重;
    huggingface-cli download --resume-download meta-llama/Meta-Llama-3-8B --include "original/*" --local-dir /data/jack/Meta-Llama-3-8B --cache-dir /data/jack/.cache
    
    • 1
    参数解释:
    –resume-download 一定要带上,防止链路断开后重新下载,浪费你的时间
    –include llama-8B只需要下载original文件夹里的三个文件
    –local-dir 你的模型权重存储的路径
    –cache-dir 如果linux服务器的.cache空间不太够,最好指定一下缓存文件夹路径
  8. 等待模型下载完毕,就可以愉快的进行测试了;
  9. 如果本文点赞超过1,下期更新如何测试llama3模型,并介绍llama3和llama3-instruct模型之间的区别。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/610497
推荐阅读
相关标签
  

闽ICP备14008679号