赞
踩
参考:【大模型-第一篇】在阿里云上部署ChatGLM3-CSDN博客
ChatGLM 是一个开源的、支持中英双语的对话语言模型,由智谱 AI 和清华大学 KEG 实验室联合发布,基于 General Language Model (GLM) 架构,具有 62 亿参数。ChatGLM3-6B 更是在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上增加了更多特性。
虽然,目前 ChatGLM 比 GPT 稍有逊色,但是,在部署后可以完全本地运行,完全由自己掌控!
全量模型运行加载 GPU运行模式下需要13GB显存+14G内存,CPU运行模式下需要28GB内存,如果你电脑没这么大显存或者内存,可以通过加载量化模型减少显存与内存占用
参考:使用 CPU 本地安装部署运行 ChatGLM-6B 获得自己的专属 AI 猫娘 — 秋风于渭水 (tjsky.net)
参考:https://blog.csdn.net/qq_41773806/article/details/134189261
1、在阿里云上申请注册及登录并完成认证
2、登录阿里云 免费试用 页面 https://free.aliyun.com/?product=1395&crowd=personal
3、 选择试用产品:
选择 立即试用
进入工作空间 宣交互式建模(DSW)
输入实例名称,就叫它 550W 吧~,GPU 选择 A10 或者 V100 都行,这俩是支持资源包抵扣的,其他的不支持,这里注意!V100 性能更好,但我们测试使用没必要,就选 A10 就行,A10 显卡每小时消耗6.991计算时,如果不关机持续使用大概可以使用30天。
我打开的时候只有V100 了 支持资源包抵扣
没选数据集 进入选择镜像
选择创建实例 点击下一步 耐心等待实例创建。
部署GLM3,包括其它类似的开源大模型,步骤都是差不多的,毕竟这些高校/大厂都帮大家封装好了,所以并没有特别繁琐的步骤。
在我看来,主要就是三步:1、环境搭建;2、git下载GLM3(如果要本地化部署,还要下载模型);3、修改路径并启用
1、环境搭建
因为使用的是阿里云的PAI,默认已经帮我们配置好了环境变量、网络,装好了python甚至pytorch、tensorflow等等,点击打开后进入
点击 terminal进入:
git clone https://github.com/THUDM/ChatGLM3
cd ChatGLM3
pip install --upgrade pytorch-lightning
pip install -r requirements.txt
WARNING: Running pip as the 'root' user can result in broken permissions and conflicting behaviour with the system package manager. It is recommended to use a virtual environment instead: https://pip.pypa.io/warnings/venv
pip install virtualenv
virtualenv venv
进入:source venv/bin/activate
停止:deactivate (参考)
pip install -r requirements.txt
安装完成:
pip install --upgrade pip
有2个文件需要修改变量路径,一个是/mnt/workspace/ChatGLM3/basic_demo下的“web_demo.py”,另一个是chatgm3-6b下的“config.json”,都是把默认的“THUDM/”修改为“/mnt/workspace/”
这里的修改,可以使用vim,也可以直接左边栏双击打开文件修改
pip install mdtex2html
启动后 问了一下 貌似卡住了。。。
待研究。。。
修改 cli_demo.py
python cli_demo.py
当前 GPU 没有被使用 还是使用的CPU
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。