当前位置:   article > 正文

开源大模型safetensors格式转gguf_safetensors转gguf

safetensors转gguf

问题:
在使用开源大模型时,多数情况下从HuggingFace或者modelscope中不提供gguf格式权重文件,此时需要对给定的权重文件进行转换。
解决办法:
Qwen-1.5 32B的模型为例。

第一步:下载模型权重

进入Qwen-1.5 32Bmodelscope网址下载模型文件,具体下载方法这里不再赘述。
在这里插入图片描述

第二步:克隆llama.cppgithub仓库,并编译

git clone https://github.com/ggerganov/llama.cpp.git
  • 1

在这里插入图片描述
接着,进入llama.cpp目录,并使用make进行编译:

cd llama.cpp
make
  • 1
  • 2

编译完成后,llama.cpp目录相较于之前会多出来很多文件。
在这里插入图片描述

第三步:转gguf格式

首先使用以下命令安装所有依赖库

pip install -r requirements.txt
  • 1

然后使用如下指令生成gguf格式模型文件。

python convert-hf-to-gguf.py [Qwen-1.5 32B文件夹位置]
  • 1

执行完成后在[Qwen-1.5 32B文件夹位置]目录下会产生gguf格式的模型文件。
在这里插入图片描述
此时模型文件大小并没有发生变化,只是转了格式而已,依然有65GB,下面尝试做模型量化

第四步:模型量化(可选)

模型量化的版本有很多,这里选择使用Q4_0版本进行量化。

 ./quantize [Qwen-1.5 32B文件夹位置/ggml-model-f16.gguf]  [Qwen-1.5 32B文件夹位置/ggml-model-Q4_0.gguf] Q4_0
  • 1

在这里插入图片描述
可以看出经过Q4_0量化后生成的模型文件小很多(18GB)。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/754460
推荐阅读
相关标签
  

闽ICP备14008679号