赞
踩
一般情况下,获取小体量的模型如gemma2b这种不会出现time out现象,但是如果稍微大一点的模型如llama2:13b,或者70b的就容易出现timeout的报错,这里我们只需要添加一个requset_time的参数即可。
Settings.llm = Ollama(base_url="http://localhost:11434", model=llm_model, request_timeout=60)
我这里是修改成60后基本可以不出现timeout现象,大家可以根据自己需求来修改
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。