赞
踩
上篇文章我们使用ollama进行本地的部署,其ollama只是一个后台服务,而ollama并没有提供一个可视化的界面。当然我们可以使用cmd终端窗口里面跟llama2大模型进行沟通交流,但是其界面只有一个黑色的框,并不美观。本期我们就介绍一下Lobe Chat,一个漂亮的UI可视化界面
Lobe Chat简介
现代化设计的开源 ChatGPT/LLMs 聊天应用与开发框架;支持语音合成、多模态、可扩展的(function call)插件系统;一键免费拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用
支持本地大语言模型 (LLM)(我们重点介绍的地方)
为了满足特定用户的需求,LobeChat 还基于 Ollama 支持了本地模型的使用,让用户能够更灵活地使用自己的或第三方的模型。
- $ docker run -d -p 3210:3210 \
- -e OPENAI_API_KEY=sk-xxxx \
- -e ACCESS_CODE=lobe66 \
- --name lobe-chat \
- lobehub/lobe-chat
- $ docker run -d -p 3210:3210 \
- -e OPENAI_API_KEY=sk-xxxx \
- -e OPENAI_PROXY_URL=https://api-proxy.com/v1 \
- -e ACCESS_CODE=lobe66 \
- --name lobe-chat \
- lobehub/lobe-chat
docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。