当前位置:   article > 正文

开源类似chatGPT项目ChatGLM-6B单显卡安装运行成功

torch-2.0.1%2bcu118-cp310-cp310-win_amd64.whl

项目git地址

https://github.com/THUDM/ChatGLM-6B

配置要求:

本机电脑显卡显存6G以上。只有cpu则需要32GB以上。

安装基础环境

1.安装python 3.10版本

https://www.python.org/ftp/python/3.10.10/python-3.10.10-amd64.exe

2.安装cuda(有显卡)

下载页面

https://developer.nvidia.com/cuda-downloads

3.根据ChatGLM-6B文档要求,修改cli_demo.py

  1. import os
  2. import platform
  3. import torch
  4. from transformers import AutoTokenizer, AutoModel
  5. # 此处如果为false则证明torch的gpu版本没有安装好
  6. print(torch.cuda.is_available())
  7. tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4-qe", trust_remote_code=True)
  8. print("tokenizer")
  9. # model = AutoModel.from_pretrained("/Users/zhengxiaodu/Downloads/chatglm-6b", trust_remote_code=True).half().to("mps")
  10. model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4-qe", trust_remote_code=True).half().cuda()
  11. print("model")
  12. model = model.eval()
  13. os_name = platform.system()
  14. clear_command = 'cls' if os_name == 'Windows' else 'clear'
  15. def build_prompt(history):
  16. prompt = "欢迎使用 ChatGLM-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序"
  17. for query, response in history:
  18. prompt += f"\n\n用户:{query}"
  19. prompt += f"\n\nChatGLM-6B:{response}"
  20. return prompt
  21. def main():
  22. history = []
  23. print("欢迎使用 ChatGLM-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序")
  24. while True:
  25. query = input("\n用户:")
  26. if query == "stop":
  27. break
  28. if query == "clear":
  29. history = []
  30. os.system(clear_command)
  31. print("欢迎使用 ChatGLM-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序")
  32. continue
  33. count = 0
  34. for response, history in model.stream_chat(tokenizer, query, history=history):
  35. count += 1
  36. if count % 8 == 0:
  37. os.system(clear_command)
  38. print(build_prompt(history), flush=True)
  39. os.system(clear_command)
  40. print(build_prompt(history), flush=True)
  41. if __name__ == "__main__":
  42. main()

4.下载项目

  1. git clone https://github.com/THUDM/ChatGLM-6B
  2. cd ChatGLM-6B

5.安装

pip install -r requirements.txt

6.运行

python cli_demo.py

报错信息如下:

 可能是bin文件下载到一半失败

手动下载

https://huggingface.co/THUDM/chatglm-6b-int4-qe/blob/main/pytorch_model.bin

或者下载我分享的夸克网盘地址:

链接:https://pan.quark.cn/s/aabf027bef92

文件列表中的
pytorch_model.bin

 删除目录中

C:\Users\lxr\.cache\huggingface\hub\models--THUDM--chatglm-6b-int4-qe\snapshots\437fc94474689e27adfcb29ef768bfaef9be5c45

的所有文件,并把bin文件复制过来。重新运行

python cli_demo.py

报错截图:

   这个报错也许是由于cuda未安装,或者是没有安装gcc,或者是torch版本不是gpu版本,下面尝试安装

下载安装cuDNN

  打开网址:https://developer.nvidia.com/cudnn,点击Download cuDNN,需要登陆Nvidia账号,没有可以用邮箱注册一下,填写基本信息就可以。

 安装pytorch的cuda版本

  安装前删除C:\Users\lxr\AppData\Local\Programs\Python\Python310\Lib\site-packages目录下的torch相关目录

  运行 pip uninstall torch 命令

  https://download.pytorch.org/whl/torch_stable.html

  下载:https://download.pytorch.org/whl/cu118/torch-2.0.0%2Bcu118-cp310-cp310-win_amd64.whl

  下载:https://download.pytorch.org/whl/cu118/torchvision-0.15.1%2Bcu118-cp310-cp310-win_amd64.whl

  其中cp310代表python版本是3.10,win_amd64是windows平台,cu118是cuda版本11.8

  pip install "torch-2.0.0+cu118-cp310-cp310-win_amd64.whl"

     pip install "torchvision-0.15.1+cu118-cp310-cp310-win_amd64.whl"

成功启动:

 

问题和回答案例:

系统性能消耗:

本电脑配置 16GB内存,RTX3060ti 8G ,AMD Ryzen 7 3700X 8-Core Processor 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/357420
推荐阅读
相关标签
  

闽ICP备14008679号