当前位置:   article > 正文

Mac pro M2 ---“本地部署chatGPT”_mac m2本地运行qwen-7b-chat

mac m2本地运行qwen-7b-chat

        

目录

一、打开终端

二、模型下载 

坑1:你git不下来

三、安装pytorch依赖,转换模型格式

坑2:当时是python3 quantize.py 7B,但是执行完一直出错

 四、设置对话模型,给他起个名字

 五、LLaMA资料补充


        对于有些小可爱不会上网,不知道如何注册,FaceBook发布了基于LLM的人工智能大语言模型LLaMA,本地就可以部署

Supported platforms:

  •  Mac OS
  •  Linux
  •  Windows (via CMake)
  •  Docker

github:https://github.com/ggerganov/llama.cpp 

小白操作跟紧咯,昨天踩了坑了,今天帮你们规避一下风险。

一、打开终端

  1. git clone https://github.com/ggerganov/llama.cpp
  2. cd llama.cpp

现在ls看一下我们的文件夹里面有什么

二、模型下载 

git clone https://huggingface.co/nyanko7/LLaMA-7B

坑1:你git不下来

必须有解决方法,  我开始谷歌了一个方法:把https改成http,还是git不下来,点击链接,进去下载

     随后在models目录建立模型子目录7B:

mkdir 7B

此时 ls 看一下文件目录

 你会少几个文件,是因为我跑完了才截的图,现在你目前有的文件放到他对应的位置上。

三、安装pytorch依赖,转换模型格式

  1. # install Python dependencies
  2. python3 -m pip install torch numpy sentencepiece
  3. # convert the 7B model to ggml FP16 format
  4. python3 convert-pth-to-ggml.py models/7B/ 1

此时的输出应该是这个样子

 将模型转换成4位格式

坑2:当时是python3 quantize.py 7B,但是执行完一直出错

我咨询了chatgpt,给的方法全部都用了,但是没有什么效果。遇事不解,直接issue

error:python3 quantize.py 7B · Issue #621 · ggerganov/llama.cpp · GitHubWhen I tried the llama model and run :python3 quantize.py 7B for operation, ``` the "quantize" script was not found in the current location appeared If you want to use it from another location, set the -- quantify script path argument fr...icon-default.png?t=N7T8https://github.com/ggerganov/llama.cpp/issues/621用了大佬给的方法解决了,他也在github里面更新了相关的操作:

  1. # quantize the model to 4-bits (using method 2 = q4_0)
  2. ./quantize ./models/7B/ggml-model-f16.bin ./models/7B/ggml-model-q4_0.bin 2
  3. # run the inference
  4. ./main -m ./models/7B/ggml-model-q4_0.bin -n 128

当运行完这个,基本已经成功了。如果你想问他问题,-p 后面加的你要问的东西,例如:

./main -m ./models/7B/ggml-model-q4_0.bin -t 8 -n 256 -p "what's your name:"

 四、设置对话模型,给他起个名字

        但是,我觉得这玩意真的有点呆逼啊,估计是这玩意有点不行,自己对话凑活能用

  1. ./main -m ./models/7B/ggml-model-q4_0.bin -t 8 -n 256 --repeat_penalty 1.0 --color -i -r "sxt:" \
  2. -p \
  3. "
  4. sxt: Hello, jj.
  5. jj: Hello. How may I help you today?
  6. "

 五、LLaMA资料补充

Meta最新模型LLaMA细节与代码详解_常鸿宇的博客-CSDN博客

 这个大哥是写的真详细,看他就完了。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/668560
推荐阅读
相关标签
  

闽ICP备14008679号