当前位置:   article > 正文

开源模型应用落地-LangChain高阶-集成vllm-QWen1.5-OpenAI-Compatible Server(三)_langchain 集成qwen

langchain 集成qwen

 一、前言

    通过langchain框架调用本地模型,使得用户可以直接提出问题或发送指令,而无需担心具体的步骤或流程。vLLM可以部署为类似于OpenAI API协议的服务器,允许用户使用OpenAI API进行模型推理。

    相关文章:

    开源模型应用落地-LangChain试炼-CPU调用QWen1.5(一)

    开源模型应用落地-LangChain高阶-GPU调用QWen1.5(二)

    开源模型应用落地-LangChain高阶-集成vllm-QWen1.5(一)

    开源模型应用落地-LangChain高阶-集成vllm-QWen1.5(二)


声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/723963
推荐阅读
相关标签
  

闽ICP备14008679号