当前位置:   article > 正文

pytorch--在本地搭建chatGpt简化版,实现聊天,写代码功能_pytorch chatgpt

pytorch chatgpt

前言

体验了一下new bing,很不错,但是最近觉得这种模型还是搭建在自己电脑上最好,看了下github上的chatGLM项目,这个项目在致力于将一个大语言模型搭建在个人机上,我对此惊叹不已,就按照其流程下载下来搭建在自己电脑上了,这种模型运行在自己电脑上的感觉不会有那种隐私被偷窥的感觉,同时自己可以对其进行自定义优化,很好


首先感谢ChatGPT,终于不用在搜索引擎的各种垃圾信息堆里找食吃了,不用再看各种妖魔鬼怪装逼了

效果

随意交谈,同时也可以让其归纳语言和写代码,很不错
在这里插入图片描述

搭建环境

电脑配置环境:

  • 系统:win10
  • 编程环境:pytorch2.0
  • cuda:cuda11.7
  • python:python3.8.0
  • 显卡:七彩虹战斧3060ti
  • annaconda:Anaconda3-2021.05-Windows-x86_64.exe
  • VS2019
    流程:
    如果你安装过cuda和cudnn,搭建过程会很简单,
    想要运行模型,就先从基础的编译环境搭建开始吧

安装编译环境

可是怎么事先知道那个版本的windows系统,显卡型号,pytorch版本,python版本,cuda,cudnn是相互配合的呢?
先看显卡,看看显卡支持到哪里?
找到nvidia控制面板,看一下支持的cuda版本信息,要小于显卡所标识的最大版本号在这里插入图片描述
cmd输入nvidia-smi,查询驱动器版本号,
在这里插入图片描述
心中已经对显卡支持的版本有了大致了解,然后去pytorch官网,他们给的有版本配置单,按着来就行了
https://pytorch.org/get-started/locally/
在这里插入图片描述
哦吼,完美支持,我cuda12.0的,向下兼容,去英伟达官网安装cuda11.7的加速计算包完全可行
有的人电脑配置不行,就去看历史版本,如果不支持cuda11.7,就去看历史版本,看相关配置
https://pytorch.org/get-started/previous-versions/
在这里插入图片描述
在这里插入图片描述
既然支持cuda11.7,那就去英伟达官网去下载cuda11.7安装包
https://developer.nvidia.com/cuda-downloads
选择历史版本
在这里插入图片描述
然后下载所需版本即可,比如我这里的cuda11.7
在这里插入图片描述

然后再下载cudnn,找到和cuda11.7配套的

https://developer.nvidia.com/rdp/cudnn-download
需要注意的是下载cudnn需要登陆
在这里插入图片描述
然后cuda和cudnn就下载好了,但是先别急着安装,还需要安装vs2019和anaconda,
不安装vs2019 cuda无法安装成功,不安装anaconda不容易安装pytorch
先把这两个重要文件安装下

安装anaconda,python3.8.8环境

在这里插入图片描述

安装vs2019

cuda安装需要vs环境,适配的组件在vs2019中都具备了,因此要先安装vs2019
需要注意的是在安装时勾选以下组件,否则还是没有cuda运行环境
从网上下载个vs2019安装器,然后勾选如下即可,等待安装完成
在这里插入图片描述

vs2019安装完毕后开始安装cuda

cuda第一开始显示的文件路径框是自解压,选择一个空白文件夹即可,安装完毕后其会将解压的文件自动删除
然后没什么可说的,要注意选择自定义,全部勾选,下一步下一步

在这里插入图片描述
安装后看一下如下路径是否有此驱动(这是以前的老图,大差不差,路径类似,无非是11.0换成11.7,cupti64后换个日期)
在这里插入图片描述
然后配置系统变量,需要注意的是path的搜索有先后顺序,如果搜索到前面的,后面的就会被忽略
如果有多个cuda版本,应该把最需要的cuda版本放在上面,比如安装了cuda11.7和cuda11.0的,就有扫描顺序先后之分,如果想要执行cuda11.7就需要把配置路径放在前面
我自定义了路径,安装到d盘了,可能大家看着dev,doc不是很懂,其实就是development和document文件夹,我自定义文件夹了
在这里插入图片描述

安装cudnn

其实就是解压的文件夹,将cudnn中的三个文件复制放入cuda的安装目录如下
cudnn解压后的文件夹,全选复制一下
在这里插入图片描述
粘贴到cuda安装目录(以前的老图,方便理解)
在这里插入图片描述
然后cmd输入nvcc看看战绩
在这里插入图片描述

至此,cudnn和cuda,python就安装好了,版本之间的对应关系要注意对应,否则互相不兼容

安装pytorch

还记得去pytorch官网查配置时底下的命令行吗?输入anaconda就能从他们官网自动下载配置了
在这里插入图片描述

在这里插入图片描述
等待自动配置安装即可
然后进入pycharm找个命令测试下是否可以运行

import torch
 
print(torch.__version__):查看torch版本
 
print(torch.cuda.is_available()):看安装好的torch和cuda能不能用,也就是看GPU能不能用
  • 1
  • 2
  • 3
  • 4
  • 5

提示在这里插入图片描述
配置成功
然后进入github官网,下载ChatGlm工程
https://github.com/THUDM/ChatGLM-6B
downloadZip即可
下载然后解压,执行
pip install -r requirements.txt
等待其自动结束配置,
然后运行示例代码等待自动配置即可见到效果
如果需要网页版交流,就使用web_demo.py
以后会更新如何训练此类似模型,仿写以及调优

使用过程中实际会发现,运行话语多句之后内存溢出就会崩,实际上,可以单次提问,相当于浏览器的一问一答模式
聊天会丧失记忆,但是用于代写代码很不错

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().quantize(4).cuda()
model = model.eval()
def toChat(speechWords):
    response, history = model.chat(tokenizer, speechWords, history=[])
    print(response)
while(1):
    speechWords=input("用户:\n")
    print("AI思考中...")
    toChat(speechWords)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/489233
推荐阅读
相关标签
  

闽ICP备14008679号