当前位置:   article > 正文

无需 VPN 即可急速下载 huggingface 上的 LLM 模型

无需 VPN 即可急速下载 huggingface 上的 LLM 模型

无需 VPN 即可急速下载 huggingface 上的 llm 模型

快速下载huggingface模型:

安装依赖

pip install -U huggingface_hub hf_transfer  -i https://mirrors.aliyun.com/pypi/simple/
  • 1

配置

  • 在Linux中,执行:
export HF_HUB_ENABLE_HF_TRANSFER=1
export HF_ENDPOINT=https://hf-mirror.com
  • 1
  • 2
  • 在Windows中,执行:
SET HF_HUB_ENABLE_HF_TRANSFER=1
SET HF_ENDPOINT=https://hf-mirror.com
  • 1
  • 2

下载命令

下载 THUDM/chatglm3-6b 模型到本地路径 chatglm3-6b

huggingface-cli download --resume-download  THUDM/chatglm3-6b  --local-dir chatglm3-6b
  • 1

示例2:下载 databricks/dolly-v2-3b 模型到本地路径 dolly-v2-3b

huggingface-cli download --resume-download databricks/dolly-v2-3b --local-dir dolly-v2-3b
  • 1

我的下载速度 8MB/s,非常的快,也无需VPN!!

同样的,可以下载 llama2-7b, qwen1.5-7b …

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/324625
推荐阅读
相关标签
  

闽ICP备14008679号