当前位置:   article > 正文

开源模型应用落地-LangChain高阶-集成vllm-QWen1.5-OpenAI-Compatible Server(三)_vllm 仿openai

vllm 仿openai

 一、前言

    通过langchain框架调用本地模型,使得用户可以直接提出问题或发送指令,而无需担心具体的步骤或流程。vLLM可以部署为类似于OpenAI API协议的服务器,允许用户使用OpenAI API进行模型推理。

    相关文章:

    开源模型应用落地-LangChain试炼-CPU调用QWen1.5(一)

    开源模型应用落地-LangChain高阶-GPU调用QWen1.5(二)

    开源模型应用落地-LangChain高阶-集成vllm-QWen1.5(一)

    开源模型应用落地-LangChain高阶-集成vllm-QWen1.5(二)


本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号