赞
踩
我们的部署环境如下:
ollama pull llama2-chinese
然后使用run命令运行llama2-chinese模型:
ollama run llama2-chinese '如何使用httpd配置反向代理?'
ollama会很快推理并反馈如下结果: 这说明Ollama服务已经成功部署在我们的本地服务器上了