当前位置:   article > 正文

langchain+通义千问-1_8B-Chat-Int4搭建本地知识库_langchain 通义千问1.8b

langchain 通义千问1.8b

书接上回,在本地运行了通义千问-1_8B-Chat,又想用通义千问+langchain搭建本地知识库

通义千问-1_8B-Chat本地安装-CSDN博客

首先在GitHub下载 langchain 的包,GitHub上有快速上手教程,我基本上是按照这个教程搭建的。

GitHub - chatchat-space/Langchain-Chatchat: Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM) QA app with langchain

  1. # 拉取仓库
  2. $ git clone https://github.com/chatchat-space/Langchain-Chatchat.git

1. 使用conda新建python虚拟环境,新建环境这里不过多描述,因为GitHub上推荐使用3.11.7,所以我新建环境使用python3.11.7。

2. 虚拟环境建好之后安装langchain需要的依赖。

  1. # 进入目录
  2. $ cd Langchain-Chatchat
  3. # 安装全部依赖
  4. $ pip install -r requirements.txt
  5. $ pip install -r requirements_api.txt
  6. $ pip install -r requirements_webui.txt

然后下载需要的 LLM 与 Embedding 模型,LLM模型我用的是通义千问-1_8B-Chat-Int4(魔搭社区),Embedding 模型用的是m3e-base(魔搭社区)。LLM模型最开始我使用没有量化的1.8B版本,4G的3050显卡报OOM,显存带不起来,所以换成了int4量化版本,推理最低仅需不到2GB显存,生成2048 tokens仅需3GB显存占用。

在Langchain-Chatchat下新建文件夹models,放置 LLM 模型与 Embedding 模型。

3. 模型下载完初始化知识库和配置文件。

  1. $ python copy_config_example.py
  2. $ python init_database.py --recreate-vs

先运行 copy_config_example ,这一步就是复制一份配置文件,运行这一步会覆盖掉已经修改的配置文件。然后修改 Langchain-Chatchat\configs 下的 model_config.py。主要是修改模型的路径和使用哪个模型,运行LLM模型使用显卡。

然后运行 init_database ,初始化知识库。

4. 所有配置已完成就可以启动项目了。

运行成功后会自动打开网页。

可以直接对话。

新建本地知识库,新建知识库名称不支持中文

新建完知识库回到对话,就可以知识库问答了。

搭建时报的错误,按照报错提示可以解决大部分,剩下的网上可以搜到解决方法。

使用显卡运行LLM需要CUDA平台的pytorch。

下面这个地方是报错提示修改,提示加上 disable_exllama=True。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/466848
推荐阅读
相关标签
  

闽ICP备14008679号