赞
踩
https://ollama.com/download
windows环境下就安装windows版本
点击下载的exe文件进行傻瓜式安装
去ollama官网(models模块下)找大模型的名字,然后复制ollama的运行名字
https://ollama.com/library
ollama run qwen:4b
默认ollama会监听11434端口,可以使用下面命令查看
netstat -ano | findstr 11434
可以使用ollama list指令查看本地已经下好的大模型
ollama list
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
</dependency>
或者使用23版以上的idea,创建spring项目的时候选最新版本,直接勾选上AI模块下的ollama模块
spring:
application:
name: open-ai-05-ollama
ai:
ollama:
base-url: http://localhost:11434
chat:
options:
model: qwen:4b
@RestController public class OllamaController { @Autowired private OllamaChatClient ollamaChatClient; @RequestMapping(value = "/ai/ollama") public Object ollama(@RequestParam(value = "msg") String msg){ String call = ollamaChatClient.call(msg); System.out.println(call); return call; } @RequestMapping(value = "/ai/ollama2") public Object ollama2(@RequestParam(value = "msg") String msg){ ChatResponse response = ollamaChatClient.call(new Prompt( msg, OllamaOptions.create() .withModel("qwen:4b") .withTemperature(0.4f))); String content = response.getResult().getOutput().getContent(); System.out.println(content); return content; } }
看ollama的github主页下面有很多的web&Desktop,比较流行的是Open WenUI
Open WenUI Github https://github.com/open-webui/open-webui
Open WenUI 官网:https://github.com/open-webui/open-webui
windows环境下推荐使用Docker Desktop
轻量化,界面化操作Docker容器
官网下载安装包
https://www.docker.com/products/docker-desktop/
下载后傻瓜式安装即可,安装后需要重启,然后打开Docker Desktop后的界面如下:
在docker中运行Open WebUI
在命令行运行docker指令
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v D:\dev\open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
这是一个 docker run 命令,用于启动一个新的 Docker 容器,下面是这个命令各个部分的解释:
第一次运行需要拉取镜像比较慢,等待执行完成
这时候打开docker desktop就可以在images模块下看到拉取到的镜像
我们在拉取镜像的时候指定了Web UI的端口为3000,所以访问3000端口即可
http://localhost:3000/
第一次会要求登录
注册并登录
上来后和Chatgpt的页面很像的。
select model的地方选择上我们通过ollama部署的模型。然后就可以开心聊天了
官网:https://lobehub.com/
Github:https://github.com/lobehub/lobe-chat
Lobe Chat 部署
docker run -d -p 3210:3210 -e OPENAI_API_KEY=sk-xxxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat
完整的部署文档:https://lobehub.com/zh/docs/self-hosting/start
同样的,在拉取完成后,docker desktop中也会有镜像,
同样的方式,访问我们指定的3210端口
这个需要点击设置去配置模型
注意代理的地址要在后面加上/v1
配置好后就可以访问openai
本机默认代理地址可以不用配,模型列表中选上你的模型就可以使用了。
还可以加插件使用
也可以在本地部署更强大的模型,使用图片,文件,音频等模态
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。