当前位置:   article > 正文

qwen1.5 chat vllm推理使用案例;openai api接口使用_qwen1.5 vllm

qwen1.5 vllm

参考:https://github.com/QwenLM/Qwen1.5
https://qwen.readthedocs.io/en/latest/quantization/awq.html
下载:https://huggingface.co/collections/Qwen/qwen15-65c0a2f577b1ecb76d786524

下载可以参考huggingface-cli 命令下载使用:https://blog.csdn.net/weixin_42357472/article/details/132663693
  • 1

在这里插入图片描述

1、vllm运行

显卡驱动:NVIDIA-SMI CUDA Version: 12.0
cuda版本

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号