赞
踩
我们知道LangChain-ChatGLM对是GPU硬件强依赖的,每一台LangChain-ChatGLM服务支持的并发数也是有限的,当支持很大并发量的情况下,单台LangChain-ChatGLM服务满足不了要求的情况下,如何对LangChain-ChatGLM服务中的知识库一致性如何管理呢?
XXXX