当前位置:   article > 正文

模型训练系列:1、用清华ChatGLM-6B模型部署自己的本地AI助手_chatglm的量化模型

chatglm的量化模型

最近清华大学开源的ChatGLM-6B语言模型在国际上大出风头,仅仅62亿参数的小模型,能力却很强。很期待他们后续1300亿参数模型130B的发布。

为什么一些能力较弱的小模型,这么受追捧?因为ChatGPT、GPT-4虽好,毕竟被国外封锁,而且还要付费,更重要的是,LLM要在各行业提高生产力,很多企业接下来肯定是要自己部署语言模型的,毕竟谁也不敢泄漏自己商业数据给别人的AI去训练,为他人做嫁衣,最后砸了自己的饭碗。

这里根据我的实操经验,分享一下如何自己搭建一个语言模型服务器。最后效果如下:

首先需要搞一台GPU较强的机器,推荐先租一台腾讯云、阿里云等AI训练的机器,T4显卡就行,一般价格是按量付费几毛钱一个小时。我是抢到了腾讯云秒杀活动的主机,60块钱半个月,白菜价。土豪可以自己去装机长期玩。

能干这个活的都是码农吧,那就不废话了,直接上sh命令(:

  1. #我的主机环境是 Ubuntu Server 18.04 LTS 64位,预装了
  2. # Pytorch 1.9.1 Ubuntu 18.04 GPU基础镜像(预装460驱动)
  3. #以下命令从 /root 目录位置开始进行操作的
  4. #更新Ubuntu软件源
  5. apt-get update
  6. #创建目录用于存放ChatGLM源代码
  7. mkdir ChatGLM
  8. cd ChatGLM/
  9. #克隆ChatGLM-6B程序源代码
  10. git clone https://github.com/THUDM/ChatGLM-6B.git
  11. #创建目录用于存放ChatGLM6B-int4量化模型
  12. mkdir model
  13. cd model/
  14. #安装git-lfs便于文件管理
  15. apt install git-lfs
  16. #当前目录初始化为git仓库、安装lfs
  17. git init
  18. git lfs install
  19. #克隆ChatGLM-6B的int4量化模型
  20. git clone https://huggingface.co/THUDM/chatglm-6b-int4
  21. #安装python调用cuda的工具包
  22. apt install nvidia-cuda-toolkit
  23. cd ChatGLM-6B/
  24. #添加三行依赖:
  25. vim requirements.txt
  26. chardet
  27. streamlit
  28. streamlit-chat
  29. #安装所需的python依赖库
  30. pip install -r requirements.txt
  31. #代码中2处修改为模型绝对路径:
  32. vim web_demo2.py
  33. /root/ChatGLM/model/chatglm-6b-int4
  34. #运行ChatGLM6B 的web版聊天程序,即可访问http://主机IP:8080进行聊天
  35. python3 -m streamlit run ./web_demo2.py --server.port 8080

本文来自知识星球:ConnectGPT ,一个致力于探索AI、语言模型的应用技术的小圈子。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/379461
推荐阅读
相关标签
  

闽ICP备14008679号