赞
踩
最近有很多的小伙伴们在现在大模型文件或者大模型单个文件时总是出现网络问题,此问题也耽误小编很久,找到了各种的方法,终于搞明白了如何快速去解决HuggingFace源的问题。
Huggingface镜像:
pip install -U huggingface_hub
(2) 基本命令示例: export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download --resume-download --local-dir-use-symlinks False bigscience/bloom-560m --local-dir bloom-560m
(3) 下载需要登录的模型(Gated Model)--token hf_***
参数,其中hf_***
是 access token,请在huggingface官网这里获取。示例: huggingface-cli download --token hf_*** --resume-download --local-dir-use-symlinks False meta-llama/Llama-2-7b-hf --local-dir Llama-2-7b-hf
huggingface.co
直接替换为本站域名hf-mirror.com
。使用浏览器或者 wget -c、curl -L、aria2c 等命令行方式即可。--header hf_***
参数,token 获取具体参见上文。HF_ENDPOINT=https://hf-mirror.com python your_script.py
下面是一个简单的例子:
使用 Hugging Face 官方提供的 huggingface-cli
命令行工具。安装依赖:
- pip install -U huggingface_hub
-
- export HF_ENDPOINT=https://hf-mirror.com
然后新建 python 文件,填入以下代码,运行即可。
- import os
-
- # 下载模型
- os.system('huggingface-cli download --resume-download internlm/internlm-chat-7b --local-dir your_path')
以下内容将展示使用 huggingface_hub
下载模型中的部分文件
- import os
- from huggingface_hub import hf_hub_download # Load model directly
-
- hf_hub_download(repo_id="internlm/internlm-7b", filename="config.json",local_dir= "文件的下载地址路径")
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。