赞
踩
我的显卡参数:
最终结果展示,如下图所示:
在下载 ollama 之前,先去配置环境变量,确保模型下载到我们想要的地方
win10 和 win11 输入path或者环境变量:
增加系统环境变量
变量名不可更改,必须是OLLAMA_MODELS
,变量值可以自定义,
下载后得到安装包,如果不添加环境变量的话,默认会安装到C盘
输入ollama
命令,正常的得出命令行输出,表示已经安装成功
详见library (ollama.com),用于搜索已收录的模型库。以下是一些流行的模型:
ollama run llama3:8b # 运行llama3 8b大模型
直接使用 run 命令 + 模型名字就可以运行模型。如果之前没有下载过,那么会自动下载。下载完毕之后可以在终端中直接进行对话了。
open-webui 项目网址:GitCode - 全球开发者的开源社区,开源代码托管平台
open-webui 是一款可扩展的、功能丰富的用户友好型自托管 Web 界面,旨在完全离线运行。它支持包括 Ollama 和与 OpenAI 兼容的 API 在内的多种 LLM 运行器。想了解更多信息,可以查阅开放式WebUI文档。
open-webui 可以通过 docker
安装,也可以通过pip
安装,pip
安装较为简单,具体见安装文档:【wpsshop博客】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。