赞
踩
如果vllm版本升级到0.2.0及以后,下面更改代码部分就不用了
vllm需要更新支持Aquila2的commit:(需要安装包里文件替换换新增下面新的支持Aquila2的修改文件)
https://github.com/vllm-project/vllm/pull/1339/files
python -m vllm.entrypoints.api_server --model ****/AquilaChat2-7B --swap-space 16 --disable-log-requests --host 1***** --port 10860 --max-num-seqs 256 --trust-remote-code --tensor-parallel-size 2
隧道:
ssh -p 31022 -NL 7860:192.168.1.1:10860 root@18***12
import requests
import json
# from vllm import LLM, SamplingParams
headers = {"User-Agent": "Test Client"}
pload = {
"prompt
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。