赞
踩
显卡:NVIDIA GeForce RTX 3060 Laptop GPU
系统:Windows 11
CUDA版本:11.6
Python.exe版本:3.8
Pytorch版本:1.12.1
IDE:PyCharm
Anaconda虚拟环境
模型在GPU上运行
1)首先从GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型下载ChatGLM-6B-main并解压,保存路径为D盘根目录。
2)由于网络原因,在本机上无法使用命令“from transformers import AutoTokenizer, AutoModel” 自动下载模型实现和参数。所以我选择首先将模型下载到本地,然后从本地加载。步骤如下:安装Git LFS,然后在Git CMD中输入git clone https://huggingface.co/THUDM/chatglm-6b。保存路径为D:\ChatGLM-6B-main\chatglm-6b
3)使用anaconda3为ChatGLM-6B创建新的虚拟环境,使用python.exe3.8版本,由于本机显卡支持cuda11.6版本及以上,所以我选择了cuda11.6,以及torch1.12.1,命令行运行结果如下:
因为想实现网页版demo,所以继续安装gradio,以及运行依赖,相关结果如下:
至此完成虚拟环境的配置。
4)下载CUDA toolkit和cuDNN。因为我之前并没有接触过CUDA,所以这里需要额外下载CUDA并配置环境变量。
以下命令用于检验是否下载配置成功:
5)使用PyCharm打开ChatGLM-6B-main项目对web_demo.py做出以下修改后,运行即可在弹出的网页中对话,下图是修改内容和运行结果:
在具体配置的时候,我遇到的很大的问题就是在下载的ChatGLM项目是包含一个虚拟环境的,但是里面的pytorh的版本是2.0.1+cpu,该版本的torch适配的CUDA版本并不支持Windows11系统,(CUDA是从11.4.3版本之后才开始适配Windows11),此外我的显卡又只适配11.6版本以上,所以我的解决方法就是使用anaconda创建一个新的虚拟环境,采用python.exe 3.8,cuda 11.6,以及torch1.12.1。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。