赞
踩
变量名: OLLAMA_MODELS
设置路径 D:\common\Ollama\dir
echo %ollama_models%
11434
默认IP地址为本机(127.0.0.1
)这就造成只能本机才能访问运行ollama
模型要更改侦听地址和端口,可以添加以下环境变量:
变量名:
OLLAMA_HOST
变量值(端口)::114334
- 指定 Ollama API 侦听地址和端口
只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000端口
要使用 IPv6,需要 Ollama 0.0.20 或更新版本
netstat -an | findstr :11434
# 查看 Ollama 版本
ollama -v
# 查看已安装的模型
ollama list
# 删除指定模型
ollama rm [modelname]
ollama serve 启动ollama
ollama create 从模型文件创建模型
ollama show 显示模型信息
ollama run 运行模型
ollama pull 从注册表中拉取模型
ollama push 将模型推送到注册表
ollama list 列出模型
ollama cp 复制模型
ollama rm 删除模型
ollama help 获取有关任何命令的帮助信息
ollama run qwen2:1.5b
spring:
application:
name: spring-ai-02-ollama
ai:
ollama:
base-url: http://10.211.55.6:11434 # 10.211.55.6是我的ollama运行机器的ip地址 ollama 默认端口号11434
chat:
options:
model: qwen2:0.5b # ollama的模型名称
server:
port: 19002
@RestController
public class OllamaController {
@Resource
private OllamaChatModel ollamaChatModel;
/**
* 调用ollama (方式一)
* @param msg
* @return
*/
@GetMapping("/ai/ollama")
public String ollama(@RequestParam(value = "msg") String msg) {
String called = ollamaChatModel.call(msg);
System.out.println(called);
return called;
}
}
/**
* 调用ollama (方式二)
* @param msg
* @return
*/
@GetMapping("/ai/ollama2")
public Object ollama2(@RequestParam(value = "msg") String msg) {
ChatResponse response = ollamaChatModel.call(new Prompt(msg, OllamaOptions.create()
.withModel("qwen2:1.5b") // ollama的模型名称
.withTemperature(0.4F))); // 温度越高准确率越低
System.out.println(response.getResult().getOutput().getContent());
return response.getResult().getOutput().getContent();
}
GitHub官网地址
:https://github.com/ollama/ollamaOpen WebUI GitHub地址
:https://github.com/open-webui/open-webuiOpen WebUI 官方地址
:https://www.openwebui.com搭建部署
Open WebUI
有两种方式
- 方式一:
Docker方式
(官方推荐的方式
)- 方式二:
源码部署安装方式
(参考文档:https://docs.openwebui.com/getting-started/)
安装笔记:
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v D:\OOP\docker\images\open-webui:/app/backend/data \
--name open-webui \
--restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v D:\OOP\docker\images\open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
注意:将 -v 后面的路径 D:\OOP\docker\images\open-webui 改成自己的
docker run:这是 Docker 的命令,用于从指定的镜像启动一个新的容器;
-d:表示在“分离”模式下运行容器,即后台运行;
-p 3000:8080:端口映射,表示将宿主机的3000端口映射到容器的8080端口,当你访问宿主机的3000端口时,实际上会访问容器内的8080端口;
--add-host=host.docker.internal:host-gateway:这个选项向容器的 /etc/hosts 文件中添加一条记录,这通常用于让容器能够解析到宿主机的名称,并且将其 IP 地址设置为宿主机的网关地址,这在某些网络配置中很有用,尤其是当容器需要知道宿主机的地址时;
-v D:\OOP\docker\images\open-webui:/app/backend/data:卷挂载,这表示将宿主机的 D:\dev\open-webui 目录挂载到容器内的 /app/backend/data 目录,这样,容器和宿主机之间可以共享这个目录中的数据;
--name open-webui:为容器指定一个名称,这里是 open-webui;
--restart always:这个选项告诉 Docker 在容器退出时总是自动重启它,无论容器是因为何种原因退出,它都会自动重启;
ghcr.io/open-webui/open-webui:main:这是你要运行的 Docker 镜像的完整名称,ghcr.io 是 GitHub Container Registry 的地址,open-webui/open-webui 是镜像的仓库和名称,main是标签,通常表示该镜像的最新或主分支版本;
拉取成功!
挂载的目录下有很多文件
1.访问地址:http://localhost:3000
容器启动之后要稍等一会(启动比较慢)
1.官方地址:https://lobehub.com/zh
2.GitHub 地址:https://github.com/lobehub/lobe-chat
1. 自己的私有设备上部署 LobeChat 服务
docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=sk-xxxx \
-e ACCESS_CODE=lobe66 \
--name lobe-chat \
lobehub/lobe-chat
docker run -d -p 3210:3210 -e OPENAI_API_KEY=sk-xxxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat
- docker run: 这是 Docker 命令,用于启动一个新的 Docker 容器。
-d: 表示后台运行容器,不会阻塞终端输出。
-p 3210:3210: 将容器内部的 3210 端口映射到主机上的 3210 端口。这样,外部可以通过主机端口 3210 访问容器内的应用程序。
-e OPENAI_API_KEY=sk-xxxx: 设置环境变量 OPENAI_API_KEY 的值,此处可以随便写后续在页面中可以设置
-e ACCESS_CODE=lobe66: 设置环境变量 ACCESS_CODE 的值,此处替换为实际的访问代码。
--name lobe-chat: 为容器命名为 lobe-chat。
lobehub/lobe-chat: 指定要运行的 Docker 镜像,此处是 lobehub/lobe-chat 镜像。
2.执行命令 拉取镜像
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。