赞
踩
目录
坑2:当时是python3 quantize.py 7B,但是执行完一直出错
对于有些小可爱不会上网,不知道如何注册,FaceBook发布了基于LLM的人工智能大语言模型LLaMA,本地就可以部署。
Supported platforms:
github:https://github.com/ggerganov/llama.cpp
小白操作跟紧咯,昨天踩了坑了,今天帮你们规避一下风险。
- git clone https://github.com/ggerganov/llama.cpp
- cd llama.cpp
现在ls看一下我们的文件夹里面有什么
git clone https://huggingface.co/nyanko7/LLaMA-7B
必须有解决方法, 我开始谷歌了一个方法:把https改成http,还是git不下来,点击链接,进去下载
随后在models目录建立模型子目录7B:
mkdir 7B
此时 ls 看一下文件目录
你会少几个文件,是因为我跑完了才截的图,现在你目前有的文件放到他对应的位置上。
- # install Python dependencies
- python3 -m pip install torch numpy sentencepiece
-
- # convert the 7B model to ggml FP16 format
- python3 convert-pth-to-ggml.py models/7B/ 1
此时的输出应该是这个样子
将模型转换成4位格式
我咨询了chatgpt,给的方法全部都用了,但是没有什么效果。遇事不解,直接issue。
- # quantize the model to 4-bits (using method 2 = q4_0)
- ./quantize ./models/7B/ggml-model-f16.bin ./models/7B/ggml-model-q4_0.bin 2
-
- # run the inference
- ./main -m ./models/7B/ggml-model-q4_0.bin -n 128
当运行完这个,基本已经成功了。如果你想问他问题,-p 后面加的你要问的东西,例如:
./main -m ./models/7B/ggml-model-q4_0.bin -t 8 -n 256 -p "what's your name:"
但是,我觉得这玩意真的有点呆逼啊,估计是这玩意有点不行,自己对话凑活能用
- ./main -m ./models/7B/ggml-model-q4_0.bin -t 8 -n 256 --repeat_penalty 1.0 --color -i -r "sxt:" \
- -p \
- "
- sxt: Hello, jj.
- jj: Hello. How may I help you today?
- "
Meta最新模型LLaMA细节与代码详解_常鸿宇的博客-CSDN博客
这个大哥是写的真详细,看他就完了。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。