当前位置:   article > 正文

ChatGLM 实践指南_chatglm手册

chatglm手册

随着ChatGPT代表的AI大模型的爆火,我一直在想,是否能把大模型的能力用于个人或者企业的知识管理上,打造一个私有的AI助手。它了解你的所有知识,并且不会遗忘,在需要的时候召唤它就能解决问题,就如同钢铁侠的贾维斯。但是受限于硬件成本、学习成本一直未能实践。

如今ChatGLM2-6b、LLama2等越来越多强大的开源模型的出现,成本和安全性越来越可控,私有知识库也就逐渐变得可落地。再加上看到阿里云提供的免费GPU使用,于是便有了这一篇实践指南。

图片

跟着本文的操作步骤,相信你也可以从0到1部署自己的第一个私有大模型。

ChatGLM2-6B概述

ChatGLM2-6B 是清华 NLP 团队于不久前发布的中英双语对话模型,它具备了强大的问答和对话功能。拥有最大32K上下文,并且在授权后可免费商用!

ChatGLM2-6B的6B代表了训练参数量为60亿,同时运用了模型量化技术,意味着用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)

详细介绍(官方git:https://github.com/thudm/chatglm2-6b ):

图片

ChatGLM2-6B能力评测

根据专业机构TeSaiFa评测:https://github.com/TeSaiFa/llm-auto-eval ,ChatGLM2-6B模型在基础能力和专业能力方面均接近ChatGPT,中文特性则更胜一筹。数据详情参考:

图片

图片

阿里云部署流程

step1,白嫖阿里云的机器学习 PAI -DSW平台, A10 显卡

地址:https://free.aliyun.com/?product=9602825

图片

图片

图片

step2,创建工作空间和DSW实例

图片

图片

创建DSW实例

图片

输入实例名称,免费的GPU 只能选择 A10 或者 V100 都行,V100 性能更好但是贵,A10 显卡每小时消耗6.991计算时,如果不关机持续使用大概可以使用30天。这里我们学习使用就选择A10

图片

数据集是可选的,如果想闲时关机建议使用数据集,可以把数据保存,不然每次关机后启动都得重新部署。

镜像选择:

图片

step3,构建ChatGLM2-6b环境

打开DSW(Data Science Workshop)实例,打开terminal终端

图片

图片

图片

打开终端,依次执行如下命令,更新相关基础工具

apt-get updateapt-get install git-lfs

下载模型代码

git clone https://github.com/THUDM/ChatGLM2-6B.git

图片

安装依赖​​​​​​​

cd ChatGLM2-6Bpip install -r requirements.txt

正式下载模型​​​​​​​

## 这里我加载到module目录下git clone https://huggingface.co/THUDM/chatglm2-6b module

图片

!!!特别注意,这里下载很慢,务必全部下载完成后再进行下一步骤

step4,在DSW中启动WebUI

图片

!!!特别注意,务必填写正确的绝对路径地址,不然可能报我这种错误

图片

启动web,但是这里不能公网访问python web_demo.py

图片

还是在web_demo.py配置share=true开放公网访问。

图片

获得公网地址

图片

访问成功

图片

图片

写在后面

本篇是开源大模型实践指南系列的第一篇,后续会再更新关于模型的训练微调,基于向量的知识库的搭建等等,欢迎点赞关注,获取最新文章~

本文参考:

ChatGLM官方仓库:https://github.com/thudm/chatglm2-6

模型评测:https://github.com/TeSaiFa/llm-auto-eval

阿里云:https://free.aliyun.com/?product=9602825

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/546761
推荐阅读
相关标签
  

闽ICP备14008679号