赞
踩
*简介:ollama-webUI是一个开源项目,简化了安装部署过程,并能直接管理各种大型语言模型(LLM)。本文将介绍如何在你的Linux上安装Ollama服务并配合webUI调用api来完成聊天。
curl -fsSL https://ollama.com/install.sh | sh
,如果安装速度非常慢。可以先更新curl:sudo apt update
,sudo apt upgrade cur
,然后再下载ollama会比之前好很多,耐心等待20~30分钟完成下载。ollama -v
查看当前版本。ollama -h
查看当前所有命令,执行ollama run qwen:0.5b
,使用命令后问答, control + D
退出聊天。ollama serve
发现端口被占用,需要先关闭ollama service ollama stop
。然后再启动ollama serve
nohup ./ollama server > log.txt 2>&1 &
git clone https://github.com/812781385/ollama-webUI.git
cd client
pnpm i
VITE_APP_AXIOS_BASE_URL
为自己的ip地址npm run dev
运行webUIcd serve
npm i
npm run dev
运行服务端http://localhost:8080/
qwen:0.5b
,点击按钮开始拉取模型。什么是RAG,例如你问AI:你的名字叫什么?,他会告诉你他是个ai模型…,这不是我想要的答案,怎么办?有两种方式,1.训练自己的模型。2.在prompt里嵌入自己的文案。例如:你的名字叫小虎,请参考这个问题来回答: 你的名字叫什么
,这时候他会回答,他的名字叫小虎。
chroma run
启动数据库服务mxbai-embed-large
,点击查看官网文档router.post('/addData', controller.chat.addDataForDB);
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。