当前位置:   article > 正文

如何使用Langchain-Chatchat跑本地模型_langchain如何调用本地chatglm模型

langchain如何调用本地chatglm模型

以Linux系统为例

首先cd /root/Langchain-Chatchat/configs   (此处需要看你linux本地存储位置)

找到model_config.py文件,右键用记事本打开(使用xftp可视化文件管理)

此处更换为模型的绝对路径(也可以不更换,因为最后模型路径我更改为绝对路径了,并不会使用MODEL_ROOT_PATH)

此处更换为Embedding模型名称

LLM_MODELS更换为你本地的模型名称,此处以chatglm3-6B为例

下滑至

指定embedding模型绝对路径

指定上面需要用到模型的绝对路径

保存后运行 python startup.py -a

成功运行

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/一键难忘520/article/detail/821634
推荐阅读
相关标签
  

闽ICP备14008679号