赞
踩
Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答。
本项目实现原理如下图所示,过程包括:
加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的 top k
个 -> 匹配出的文本作为上下文和问题一起添加到 prompt
中 -> 提交给 LLM
生成回答。
Langchain-Chatchat 体验
https://mp.weixin.qq.com/s/RvS85gPjWOXkfQa9A2izpw
1、克隆项目
首先将以上项目克隆至本地,并安装相关依赖。
git clone https://github.com/chatchat-space/Langchain-Chatchat.git
pip install -r requirements.txt --trusted-host mirrors.aliyun.com
pip install -r requirements_webui.txt --trusted-host mirrors.aliyun.com
2、下载模型
git clone https://www.modelscope.cn/qwen/Qwen-1_8B-Chat-Int8.git
git clone https://www.modelscope.cn/AI-ModelScope/bge-large-zh.git
模型下载路径为 /models
3、初始化配置文件和知识库
python copy_config_example.py
python init_database.py --recreate-vs
4、修改配置信息
model_config.py
# 修改为下载模型的地址
MODEL_ROOT_PATH = "/models"
# 修改为本地使用模型
LLM_MODELS = ["Qwen-1_8B-Chat-Int8"]
5、启动
python startup.py --all-webui --model-name Qwen-1_8B-Chat-Int
2024-03-20(三)
喝了一杯 黑糖珍珠鲜牛奶~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。