赞
踩
节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。
汇总合集:《大模型面试宝典》(2024版) 发布!
这篇文章中,我们将开源的大模型部署到本地,并实现简单的对话和RAG。
本地实验环境:
系统:Win11
显卡:1070(8G显存)
首先更新显卡驱动到最新版本,可以去官网下载或者直接在NVIDIA Geforce Experience中直接更新驱动到最新版本,新版本的驱动向下兼容更多版本的CUDA。
查看显卡驱动支持的CUDA的最高版本,小于等于此版本的CUDA均可以使用。CMD或powershell中执行如下命令:
nvidia-smi
前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~
我们建了算法岗技术与面试交流群, 想要获取最新面试题、了解最新面试动态的、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2040。加的时候备注一下:研究方向 +学校/公司+CSDN,即可。然后就可以拉你进群了。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:技术交流
在https://pytorch.org/查看当前最新版PyTorch支持最低Python版本为3.8,支持CUDA的11.8和12.1版本,后面我们选择安装12.1版本。
最终生成的命令可以拷贝出来,下文需要使用。
安装CUDA 12.1(可选)
此步骤可选,不安装的话后面Torch会自动安装
下载地址:
https://developer.nvidia.com/cuda-12-1-1-download-archive
下载完成后直接安装即可,如果已经安装需要先卸载后再装。
安装conda
conda可以用来管理Python环境,后面我们会使用conda创建一个Python3.10的运行环境。
下载地址:
https://www.anaconda.com/download
安装完成后,为了能在命令行中使用,需要将conda的相关目录加入环境变量,例如安装在D:\developer\anaconda,则需要将以下目录添加到PATH中:
D:\developer\anaconda
D:\developer\anaconda\Scripts
D:\developer\anaconda\Library\bin
D:\developer\anaconda\Library\mingw-w64\bin
打开powershell,执行conda init初始化conda的powershell和cmd环境,linux下会初始化bash环境,初始化后方便进入conda创建的Python环境。
使用conda创建PyTorch环境
我们使用conda创建一个Python版本为3.10的Python运行环境,在命令行中执行如下命令:
conda create -n pytorch python=3.10
conda activate pytorch
使用上文中安装PyTorch的命令安装PyTorch
conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia
5下载模型
我们可以去模搭社区获取模型,国内的地址,下载速度快,不需要魔法可以直接访问。
模型库地址:https://modelscope.cn/models
这里使用Qwen1.5-0.5B-Chat这个对话模型进行体验,模型较小,占用内存少,生成速度快。
点击模型文件 -> 下载模型,可支持两种下载方式:Sdk和Git
我们通过git的方式将模型文件下载到本地
mkdir Qwen && cd Qwen
git clone https://www.modelscope.cn/qwen/Qwen1.5-0.5B-Chat.git
cd ..
1. 模型功能验证
可以使用modelscope Library加载模型,使用方法与transformers相同,使用AutoModelForCausalLM.from_pretrained方法和AutoTokenizer.from_pretrained从本地文件中加载,如果路径不存在,这两个方法会自动到modelscope下载模型文件。
需要先安装modelscope库:
pip install modelscope transformers
使用量化模型的话需要安装以下库:
pip install optimum auto-gptq
创建一个Python文件,放到与上文Qwen文件夹同级的目录中,内容如下:
from threading import Thread
from modelscope import (AutoModelForCausalLM, AutoTokenizer)
from transformers import TextIteratorStreamer
device = "cuda" # 将模型加载到哪个硬件,此处为GPU
model = AutoModelForCausalLM.from_pretrained(
"Qwen/Qwen1.5-0.5B-Chat", # 模型文件夹路径
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-0.5B-Chat")
while True:
user_input = input("请输入问题(q退出):")
if user_input.lower() == "q":
print("exit")
break
try:
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": user_input}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=False
)
inputs = tokenizer([text], return_tensors="pt").to(device)
streamer = TextIteratorStreamer(tokenizer)
generation_kwargs = dict(inputs, streamer=streamer, max_new_tokens=512)
thread = Thread(target=model.generate, kwargs=generation_kwargs)
thread.start()
generated_text = ""
count = 0
for new_text in streamer:
generated_text += new_text
print(new_text, end="", flush=True)
print()
except Exception as e:
print(f"出错了:{str(e)}")
上面的代码首先从本地模型文件夹中加载了模型和分词器,然后我们在一个循环中接收用户输入,并将输入处理后通过大模型进行内容生成。我们可以通过python运行上面的文件,运行后,就可以测试了,就测试运行效果如下:
到目前为止,我们已经在本地跑起来了一个千问0.5B大语言模型,接下来需要让langchain能够加载这个本地模型。
如果要用langchain加载模型,我们需要继承langchain.llms.base.LLM 类,并且重写_llm_type, _call方法,因为我们需要支持流式输出,就需要重写_stream方法。可参考langchain的官方文档:Custom LLM |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。