赞
踩
Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama 2。Ollama极大地简化了在Docker容器内部署和管理LLM的过程,使得用户能够快速地在本地运行大型语言模型。
关于 Ollama 的详细介绍和安装使用请参考如下文章:
Ollama其实有两种模式:
这里使用服务器模式,Ollama在后端运行大模型,开发IP和端口给外部软件使用。
下载AnythingLLM之后开始进入启动的配置阶段,开始之前请确保 ollama serve 运行,或者终端执行 ollama run xxx(任何一个模型)。
通过终端或者命令行,访问 http://127.0.0.1:11434 进行验证:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。