当前位置:   article > 正文

如何将 huggingface上的模型文件下载到本地_huggingface下载模型到本地

huggingface下载模型到本地

写在前面

缘由:国内的GPU服务器直接调取 huggingface 上模型经常会失败,因此下载到本地就能免去许多麻烦。

方法三基于知乎上一位博主所提出方法的基础上进行改进,可以将huggingface上模型由 Colab 存进 谷歌云盘 或者 百度云盘。特别是有些国内炼丹平台支持百度网盘,所以你甚至可以直接将百度网盘内的文件直接上传到炼丹平台,更省事了。

记得点赞收藏,下次还能找到!

写在中间

法一、直接下载

如果不嫌麻烦的话,可以直接下载单个文件或者目录里面的文件。

在此之前,在本地仿照仓库新建对应层级的文件夹,将每个文件放进对应目录即可。

在这里插入图片描述

法二:git 克隆仓库

这一种方法最为简单。

首先打开代理软件。

接着在电脑上安装好git,然后在你想下载的位置新建一个文件夹,进入文件夹之后,点击右键

在这里插入图片描述

然后设置代理,一行一行的复制粘贴,由于clash默认端口7890

# 设置全局代理
git config --global https.proxy http://127.0.0.1:7890
git config --global https.proxy https://127.0.0.1:7890
git config --global http.proxy socks5://127.0.0.1:7890
git config --global https.proxy socks5://127.0.0.1:7890

# 取消全局代理
git config --global --unset http.proxy
git config --global --unset https.proxy
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

之后进入huggingface找到你要下载的模型,点击图中位置即可获取克隆链接。复制到git,静待即可。

在这里插入图片描述

法三:借用 Colab 充当下载器

本方法基于知乎博主文章修改,由于使用原代码下载时,有时会出现错误,故将其修改并完善。关于使用方法,我已在下面的链接中将使用方法尽可能详细的说明,进入即可查看

使用链接

得益于colab 高达 200~300MB/s 的极高网速,可以十分轻松的拉取huggingface 上的代码模型文件。

经过实验,我已经帮大家踩过坑了,不要直接在 colab 中使用命令将文件夹压缩。由于没有优化,测试下来 8个G大小的模型文件经过压缩为5G,花费 20 分钟。而且由于文件过大,还不能直接下载下来。

因此可以将拉取过后的文件夹整个保存到云盘,就能发挥云盘下载文件的优势了。

具体方法:如果保存到谷歌云盘,进入谷歌云盘,找到刚刚保存的模型文件夹,点击下载,云盘就会将其压缩下载了。

在这里插入图片描述

在这里插入图片描述

可以看见一个最大的bin模型文件被单独下载且不需要解压,其余文件被分成两部分,注意解压文件时,将其解压到同一个文件夹内。经过整理同样可以完整下载

在这里插入图片描述

当然也可以根据提示保存到百度网盘里面,速度也是相当可观的。

在这里插入图片描述

对接炼丹平台

来讲讲法三最牛的用法,前提是你有百度网盘会员,如果要使用云 GPU 来进行训练上传模型到国内的炼丹平台,由于我只用过 autodl 这家(其他家的如果可以欢迎在评论区补充)是支持公网网盘导入和导出的。教程在这里,所以可以将上一步存到网盘里的文件直接导入进autodl。

写在最后

总结一下
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/943041
推荐阅读
相关标签