当前位置:   article > 正文

LangChain+LLM做知识库时,参数如何调优(3)_langchain 如何提高精确 知识库

langchain 如何提高精确 知识库

如何文本分割的时候,按照每行进行分割?因为我的本地TXT文件知识库是按照Q,A的形式组织的。也就是文本切片的时候按照每行进行切片。· Issue #893 · imClumsyPanda/langchain-ChatGLM (github.com)

建议:

其实FAQ最好的实现是不用大模型。只做AQ里的Q的文本切割(一般用\n对内容简单的split即可)、向量化,AQ成对存放在数据库里。

这样达到的效果是:用户提问题,根据相关度匹配向量库的Q,如果Q有多个则返回给用户问的哪个问题,如果Q只有1个,则通过Q在A数据库里搜索Q对应的A,A返回给用户。

至于想显得智能些,FAQ里匹配不到用户问题时,再考虑用大模型,把用户问题抛给大模型并提示用户是机器人回答的。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/467388
推荐阅读
相关标签
  

闽ICP备14008679号