当前位置:   article > 正文

HuggingFace下载模型网络连接失败问题解决方法_hf endpoint

hf endpoint

最近有很多的小伙伴们在现在大模型文件或者大模型单个文件时总是出现网络问题,此问题也耽误小编很久,找到了各种的方法,终于搞明白了如何快速去解决HuggingFace源的问题。

Huggingface镜像:

  1. 方法一:使用huggingface 官方提供的 huggingface-cli 命令行工具。

    (1) 安装依赖
    pip install -U huggingface_hub
    (2) 基本命令示例:
    export HF_ENDPOINT=https://hf-mirror.com
    huggingface-cli download --resume-download --local-dir-use-symlinks False bigscience/bloom-560m --local-dir bloom-560m
    (3) 下载需要登录的模型(Gated Model)
    请添加--token hf_***参数,其中hf_***是 access token,请在huggingface官网这里获取。示例:
    huggingface-cli download --token hf_*** --resume-download --local-dir-use-symlinks False meta-llama/Llama-2-7b-hf --local-dir Llama-2-7b-hf
  2. 方法二:使用url直接下载时,将 huggingface.co 直接替换为本站域名hf-mirror.com。使用浏览器或者 wget -c、curl -L、aria2c 等命令行方式即可。
    下载需登录的模型需命令行添加 --header hf_*** 参数,token 获取具体参见上文。
  3. 方法三:(非侵入式,能解决大部分情况)huggingface 提供的包会获取系统变量,所以可以使用通过设置变量来解决。
    HF_ENDPOINT=https://hf-mirror.com python your_script.py

 

下面是一个简单的例子:

使用 Hugging Face 官方提供的 huggingface-cli 命令行工具。安装依赖:

  1. pip install -U huggingface_hub
  2. export HF_ENDPOINT=https://hf-mirror.com

然后新建 python 文件,填入以下代码,运行即可。

  • resume-download:断点续下
  • local-dir:本地存储路径。(linux 环境下需要填写绝对路径)
  1. import os
  2. # 下载模型
  3. os.system('huggingface-cli download --resume-download internlm/internlm-chat-7b --local-dir your_path')

以下内容将展示使用 huggingface_hub 下载模型中的部分文件

  1. import os
  2. from huggingface_hub import hf_hub_download # Load model directly
  3. hf_hub_download(repo_id="internlm/internlm-7b", filename="config.json",local_dir= "文件的下载地址路径")

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/99007
推荐阅读
相关标签
  

闽ICP备14008679号