当前位置:   article > 正文

【LangChain-chatchat添加在线调用Openai的embedding模型:text-embedding-3-large】

text-embedding-3-large

LangChain-chatchat添加在线调用Openai的embedding模型:text-embedding-3-large

正确步骤:

博主已实验成功!!!!!

该篇介绍的是部署openai相关支持部分【在线调用,不吃硬件资源】,完整部署的可以根据实际情况借鉴修改

步骤一:拉取最新代码

git clone https://github.com/chatchat-space/Langchain-Chatchat.git
  • 1

步骤二:添加text-embedding-3-large到候选列表

默认已经配置完环境,运行了copy_config_example.py和init_database.py文件。不明白的可以去看github的官方介绍

1.打开Langchain-Chatchat/configs/model_config.py文件
# 1.1 修改EMBEDDING_MODEL默认模型为text-embedding-3-large
# 1.2 修改LLM_MODELS,将openai-api放在最前面
# 1.3 修改ONLINE_LLM_MODEL,添加openai-api的api_key
# 1.4 修改MODEL_PATH,在"embed_model"里添加"text-embedding-3-large":“your api_key”
  • 1
  • 2
  • 3
  • 4

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.打开Langchain-Chatchat/webui_pages/knowledge_base/knowledge_base.py文件
# 2.1 查找knowledge_base_page函数
# 2.2 添加"text-embedding-3-large"到在线列表
  • 1
  • 2
embed_models = list_online_embed_models() + ["text-embedding-3-large"]
  • 1

在这里插入图片描述

步骤三:补充筛选名单【最关键!!!】

1.打开Langchain-Chatchat/server/knowledge_base/kb_cache/base.py文件
# 1.1 查找EmbeddingsPool类
# 1.2 在EmbeddingsPool类里的load_embeddings函数中添加一段新代码,用于检测模型名字为text-embedding-3-large时,进行在线调用
  • 1
  • 2

在这里插入图片描述

步骤四:添加 #科学# 路径【需要本机有科学上网工具,如果没有网络问题,可以略过】

1.打开Langchain-Chatchat/startup.py文件
# 添加如下内容
os.environ["http_proxy"] = "http://localhost:7890"
os.environ["https_proxy"] = "http://localhost:7890"
  • 1
  • 2
  • 3

在这里插入图片描述

步骤五:运行轻量化部署

python startup.py -a --lite
  • 1

新建知识库,发现已成功调用text-embedding-3-large
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/821635
推荐阅读
相关标签
  

闽ICP备14008679号