搜索
查看
编辑修改
首页
UNITY
NODEJS
PYTHON
AI
GIT
PHP
GO
CEF3
JAVA
HTML
CSS
搜索
weixin_40725706
这个屌丝很懒,什么也没留下!
关注作者
热门标签
jquery
HTML
CSS
PHP
ASP
PYTHON
GO
AI
C
C++
C#
PHOTOSHOP
UNITY
iOS
android
vue
xml
爬虫
SEO
LINUX
WINDOWS
JAVA
MFC
CEF3
CAD
NODEJS
GIT
Pyppeteer
article
热门文章
1
ssm房屋租赁系统(开题+源码)_房屋 租赁 系统 开源
2
某项目公司-——ETL工程师岗位——二面
3
人口相关公开数据集_人口数据集
4
开创先河的AI视频模型Sora:引领创新发展的先锋
5
Bash: export - 设置或显示环境变量_bash export
6
MySQL--SQL执行流程_sql数据库流程图
7
vue3中axios的二次封装_vue3 axios的二次封装
8
Android 布局生成图片 做分享操作_android 将布局生产图片
9
【AI热点技术】ChatGPT开源替代品——LLaMA系列之「羊驼家族」
10
Json性能测试——cJSON vs rapidjson_cjson性能
当前位置:
article
> 正文
VMWars中Debian11安装chatglm.cpp,chatglm6b-32k,QAnything全过程_chatglm qanything
作者:weixin_40725706 | 2024-03-20 14:03:26
赞
踩
chatglm qanything
准备工作:
安装Debian11的ios镜像
网络设置
在安装debian11的时候选择国内的清华的源
设置http_proxy,可以加快速度
下载chatglm6b-32k的大模型(不支持function_call的功能)
下载地址:https://www.wisemodel.cn/models/ZhipuAI/chatglm3-6b-32k
git clone https://www.wisemodel.cn/ZhipuAI/chatglm3-6b-32k.git
(可能会有问题,做的不完善,不行的话,就自己手动的下载就好了)
下载chatglm6b 大模型,可以支持function_call的功能
apt install git-lfs (用于git的下载,不然git clone下载下来的数据不全)
git lfs install
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
参考链接: [Windows本地部署ChatGLM3-6B模型] (https://blog.csdn.net/Silver__Wolf/article/details/135817503)
下载chatglm.cpp的github文件到本地
下载地址:https://github.com/li-plus/chatglm.cpp
git clone --recursive https://github.com/li-plus/chatglm.cpp.git && cd chatglm.cpp
下载QAnything的github项目到本地
下载地址:https://github.com/netease-youdao/QAnything
安装第三方的库
apt install python3
apt install cmake
apt install gcc
apt install libopenblas-dev
apt-get install libpthread-stubs0-dev
apt-get install libgoogle-perftools-dev
apt-get install libpthread-dev
操作步骤
1.安装需要的python依赖包
python3 -m pip install -U pip 安装更新pip包
python3 -m pip install torch tabulate tqdm transformers accelerate sentencepiece 下载需要的安装包(比较大,10MB/s的网速,是下了大概30分钟左右)
2.将大模型变形
进入chatglm.cpp的目录下
python3 chatglm_cpp/convert.py -i xxxx(替换成自己下载的模型的文件夹) -t q4_0 -o chatglm-ggml.bin (表示将模型转换为chatglm-ggml.bin的文件,并且用4bit的进度,相对于cpu来说,这个速度会比较快,位数越多,速度越慢)
3.设置swap的大小,内存要给够,设置个20G的内存(32G内存的可以忽略这步)
参考网页:https://ayw.ink/3439.html
注意:内存不够,会导致cmake --build会卡在75%报错,从而导致后续的编译失败
apt install util-linux (可以使用swapoff设置交换内存)
sudo swapon -s 查看swapon的状态
sudo fallocate -l 20G /swapfile 创建一个20G的swap交换内存,并且命名为/swapfile
sudo chmod 600 /swapfile 设置这个文件为读和写的权限
sudo mkswap /swapfile 将交换内存生效
sudo echo ‘/swapfile none swap sw 0 0’ | sudo tee -a /etc/fstab 开机自动挂载交换内存
sudo swapon -s 查看交换内存状态,或使用free -h 查看
4.Build chatglm.cpp项目
进入chatglm.cpp 目录下
cmake -B build (用来检查依赖项的)
cmake --build build -j --config Release
5.执行example示例进行处理
5.1 streamlimit run chatglm3_demo.py
进入chatglm.cpp目录,执行pip install .
拷贝: cp ./build/lib.linux-x86_64-cpython-310/chatglm_cpp/_C.cpython-310-x86_64-linux-gnu.so ./chatglm_cpp/_C.cpython-310-x86_64-linux-gnu.so (根据实际情况进行处理)
执行 python chatglm3_demo.py 即可
问题:
1.huggingface_hub.utils._validators.HFValidationError: Repo id must be in the form ‘repo_name’ or ‘namespace/repo_name’: ‘/home/gxe/chatglm_cpp/chatglm-ggml.bin’. Use
repo_type
argument if needed
估计是找到的这个bin文件是错误的,需要在chatglm3_demo.py文件中进行修改
修改文件中的MODEL_PATH为绝对路径试试看
2.我发现我让查询天气的时候并没有生效,有点奇怪,显示自己不能联网,不知道结果是什么
查看可以下代码 和 system下的function_call文件,似乎没有什么问题才是
问题
在设置swapoff的时候,系统提示没有swapoff的指令
apt install util-linux 包,但还是提示说没有这个swapoff的指令,不应该呀
具体的参考方式是:https://ayw.ink/3439.html
cmake --build 阶段报错,Performing Test CMAKE_HAVE_LIBC_PTHREAD - Failed
stackoverflow answer
执行python3 chatglm3_demo.py 时 ModuleNotFoundError: No module named ‘chatglm_cpp._C’
进入chatglm.cpp目录下,执行pip install .
执行后,内存要足够,会生成一个文件 在build,拷贝处理: cp ./build/lib.linux-x86_64-cpython-310/chatglm_cpp/_C.cpython-310-x86_64-linux-gnu.so ./chatglm_cpp/_C.cpython-310-x86_64-linux-gnu.so
执行正常
执行
声明:
本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:
https://www.wpsshop.cn/w/weixin_40725706/article/detail/273838
推荐阅读
article
用通俗易懂的方式讲解大
模型
:基于
LangChain
和
ChatGLM2
打造自有
知识库
问答
系统_...
添加
知识库
文档步骤如下:先选新建
知识库
输入
知识库
名字,点击“添加至知识选项”上传文件,完了后点击“上传文件并加载
知识库
”...
赞
踩
article
python
&
anconda
系列(亲测有效):
ChatGLM
:
win11
部署
大
模型
实例并正常
启动
、C...
ChatGLM
:
win11
部署
大
模型
实例并正常
启动
、
ChatGLM
2
-6B
模型
基于 P-
Tuning
v2 的微调_w...
赞
踩
article
ChatGLM
2
-
6B
、
ChatGLM
-
6B
模型
训练
自己
数据
集实战_
chatglm
喂
数据
集...
1.较低的部署门槛: FP16 半精度下,
ChatGLM
-
6B
需要至少 13GB 的显存进行推理,结合
模型
量化技术,一...
赞
踩
article
开启想象翅膀:轻松实现
文本
生成
模型
的创作应用,支持
LLaMA
、
ChatGLM
、UDA、
GPT2
、Se...
开启想象翅膀:轻松实现
文本
生成
模型
的创作应用,支持
LLaMA
、
ChatGLM
、UDA、
GPT2
、
Seq2Seq
、
BART
...
赞
踩
article
(1)给
ChatGLM
添加
先验
信息
-使用
text2vec
添加
先验
信息
_
text2vec
chatgl...
这里的文档可以替换成其他的PDF、word文档,也可以先对这些文件批量建立索引保存下来,之后再读取对应的索引,输入到Ch...
赞
踩
article
ChatGLM
-
6B
模型
微调
实战(以
ADGEN
(广告生成)
数据
集
为例,序列长度达 2048)_...
ChatGLM
-
6B
模型
微调
实战(以
ADGEN
(广告生成)
数据
集
为例)_
adgen
数据
集
adgen
数据
集
...
赞
踩
article
基于
ChatGLM
-6B 搭建个人
专属
知识库
_
chatglm
知识库
github
...
总得来说对非专业人员不友好。今天树先生教大家无需微调就能实现垂直领域的专业问答,利用实现个人
专属
知识库
,非常简单易上手。...
赞
踩
article
LangChain
+
ChatGLM2
-
6B
搭建个人专属
知识库
_
langchain
chatgl...
之前教过大家利用
langchain
+ ChatGLM-
6B
实现个人专属
知识库
,非常简单易上手。最近,智谱 AI 研...
赞
踩
article
Langchain
+
ChatGLM
-6B的私有化部署实现企业私有
知识库
_
chatglm3
-6b+la...
Langchain
+
ChatGLM
-6B的私有化部署实现企业私有
知识库
_
chatglm3
-6b+
langchain
cha...
赞
踩
article
LangChain
+
ChatGLM
-6B /
ChatGLM
2
-6B 新手踩坑指南!_langc...
项目资源来源链接。_
langchain
结合
chatglm2
langchain
结合
chatglm2
...
赞
踩
article
!!!亲测成功:
langchain
+
ChatGLM
大
模型
部署
_
chatglm3
如何
langcha...
部署
langchain
+
ChatGLM
_
chatglm3
如何
langchain
结合
chatglm3
如何
langcha...
赞
踩
article
通义千问,
文心
一言,
ChatGLM
,
GPT
-4,
Llama2
,
DevOps
能力评测_ch...
Appilot & Walrus 应用部署管理场景主流大模型能力对比评测。_chatglm4.0chatglm4.0 ...
赞
踩
article
ChatGLM
Java
SDK
:智谱 AI 通用语言模型 Zhipu
ChatGLM
Java
S...
智谱 AI 大模型跨平台
Java
ChatGLM
4
SDK
_智谱
api
原生
http
调用接口智谱
api
原生
http
调用接...
赞
踩
article
chatglm
int4
本地使用教程
_
chatglm
4
...
首先一个项目文件 直接使用 打开这个目录 到控制台。一直传入历史会造成速度越来越慢也会爆显存。将代码copy to in...
赞
踩
article
ChatGLM
GPU
多卡并行训练
_
chatglm
多
gpu
卡
部署
...
首先打乱数据顺序,然后用 11/2 =6(向上取整),然后6乘以
GPU
个数2 = 12,因为只有11个数据,所以再把第一...
赞
踩
article
#01【ch
at
glm】双
GPU
微调
时报错“不在相同设备上”-已
解决
_
but
found
at
le...
还有同学是几年前的老爷机/笔记本,或者希望大幅提升部署/
微调
模型的速度,我们应用了动态技术框架,大幅提升其运算效率(约4...
赞
踩
article
chatGLM
本地
部署
(
windows
+
linux
)_
chatglm
本地
部署
...
chatGLM
安装
部署
_
chatglm
本地
部署
chatglm
本地
部署
...
赞
踩
article
ChatGLM
-6B
微调
p
tuning
v2
和
lora
对比_p
tuning
和
lora
对比...
使用p
tuning
v2
和
lora
两种不同的方法
微调
chatglm-6b模型,对比两种
微调
方法的效果,验证
微调
是否能够...
赞
踩
article
本地搭建属于自己的
ChatGPT
:基于
PyTorch
+
ChatGLM
-
6b
+
Streamlit
+QD...
本地部署chatglm-
6b
记录,解决生成式模型的时效性问题方案:通过本地数据库或者搜索引擎获取特有数据或者实时数据作为...
赞
踩
相关标签
langchain
人工智能
深度学习
语言模型
大模型
pytorch
python
dubbo
开发语言
java
llama
自然语言处理
算法
文本生成
GPT
chatGLM
chatgpt
机器学习
开源
nlp