当前位置:   article > 正文

ModaHub魔搭社区:ChatGLM 集成进LangChain的教程_langchain如何连接chatglm

langchain如何连接chatglm

目录

接入自己的LLM

搭建ChatGLM的api

封装ChatGLM的LLM

测试

总结

参考


最新一段时间一直在学习LangChain相关的文档,发现LangChain提供了非常丰富的生态,并且也可以让业务非常方便的封装自己的工具,接入到LangcChain的生态中,比如切换不同向量存储(Vectorstores)、文件分片(Text Splitters)和文件加载器(Document Loaders)等。 本文将简单介绍下如何将自己搭建的ChatGLM集成进LangChain工具链中,当然如果有其他的自己搭建的LLM模型也可以采用类似的方式集成。

 

接入自己的LLM

参考官方文档# How to write a custom LLM wrapper,只需要集成LLM方法,并且实现_call方法即可。一个简单的自定义LLM如下:

from langchain.llms.base import LLM
from typing import Optional, List, Mapping, Any

class CustomLLM(LLM):
  n:int
  
  @property
  def _llm_type(self) -> str:
    return "custom"

  def _call(self,prompt:str,stop:Optional[List[str]]=None) -> str:
    if stop is not None:
      raise ValueError("stop kwargs are not permitted")
   
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/秋刀鱼在做梦/article/detail/901309
推荐阅读
相关标签
  

闽ICP备14008679号