当前位置:   article > 正文

大语言模型本地部署与使用_ollama_open-webui_linux 安装ollama

linux 安装ollama

概述

本文主要记录如何使用ollama运行开源的大语言模型如llama3等,以及如何使用open-webui进行交互。

ollama支持MacOS、Linux、Windows等操作系统,这里主要以Linux和Windows为主,讲述如何在本地运行大语言模型。

一· 安装ollama

1.1 Windows系统安装ollama

访问ollama的官方网站:https://ollama.com/,点击Download,选择WindowsLOGO下载ollama的安装包。

400

下载完成后,双击安装包,按照提示安装即可。

ollama安装完成后,可以在cmdpowershell中执行ollama --version,查看是否安装成功。

1.2 Linux系统安装ollama

1.2.1 自动安装脚本

访问ollama的官方网站:https://ollama.com/,点击Download,选择LinuxLOGO,点击后复制下方的安装指令,粘贴到Linux的终端中执行即可。

400

安装指令如下:
curl -fsSL https://ollama.com/install.sh | sh

1.2.2 使用docker安装

访问ollama托管在DockerHub的仓库Ollama Docker image,根据其README中的指令,可以使用docker安装ollama

CPU Only

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
  • 1

注意-v ollama:/root/.ollama 是将ollama的配置文件映射到本地,可以在更改ollama为其他文件夹

GPU版本

注:使用GPU版本需要安装Nvidia的GPU Driver和Nvidia Container Toolkit,具体安装方法可以参考Nvidia Docker

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
  • 1

同理:-v ollama:/root/.ollama 是将ollama的配置文件映射到本地,可以在更改ollama为其他文件夹

运行ollama

docker exec -it ollama ollama run llama3
  • 1

二· 使用ollama运行大语言模型

2.1 ollama的基础指令

  • ollama serve:启动ollama服务
  • ollama create:创建一个模型
  • ollama show:展示模型信息
  • ollama run:运行模型
  • ollama pull:从registry拉取模型
  • ollama push:推送模型到registry
  • ollama list:列出模型
  • ollama cp:复制模型
  • ollama rm:删除模型
  • ollama help:查看帮助
  • ollama --version:查看ollama的版本
  • ollama --help:查看ollama的帮助

2.2 ollama支持的模型

通过查看ollama的官方网站ollama Library,可以看到ollama支持的模型,如llama3Phi3等。
400

llama3为例,可以通过ollama run llama3来运行llama3模型。

通用指令如下:

ollama run [model_name]:[model_tag]
  • 1

例如,llama3模型分别有llama3:8bllama3:70b等版本,其中,8b 70b分别代表模型的参数量,运行70b模型的指令为:

ollama run llama3:70b
  • 1

三· 使用open-webui进行交互

Open WebUI 是针对 LLM 用户友好的 WebUI, 支持的 LLM 运行程序包括 OllamaOpenAI 兼容的 API

3.1 Ubuntu安装open-webui

注:open-webui仅仅只是一个用于交互的WebUI,需要配合ollamaopenai等大语言模型服务一起使用。

注: 本文假设你已经在 11434 端口启动了 Ollama 服务,是否在本机不影响使用

镜像下载

官方没有在 docker hub 上发布镜像,而是发布在 ghcr.io,地址在 https://github.com/open-webui/open-webui/pkgs/container/open-webui

登录到Ubuntu系统,执行以下命令拉取镜像:

# 创建数据文件夹
mkdir -p /home/lujx/docker/ollama/data
# 切换到数据文件夹
cd /home/lujx/docker/ollama/data
# 拉取镜像
docker pull ghcr.io/open-webui/open-webui:git-df3675a-cuda
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

注:git-df3675a-cuda 是镜像的版本号,可以根据实际情况更改,可通过访问ghcr.io查看最新版本号,或者直接使用main

如果镜像下载速度较慢,可以试试 docker 代理网站:https://dockerproxy.com/,但是会多几个步骤

# 如果拉不动的话加个代理
docker pull ghcr.dockerproxy.com/open-webui/open-webui:main
# 重命名镜像(如果是通过代理下载的)
docker tag ghcr.dockerproxy.com/open-webui/open-webui:main ghcr.io/open-webui/open-webui:main
# 删除代理镜像(如果是通过代理下载的)
docker rmi ghcr.dockerproxy.com/open-webui/open-webui:main
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

启动容器:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway --gpus=all -v data:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • 1

注: 如需添加其他参数,可在启动容器是配置环境变量,如OPENAI_API_BASE_URL OPENAI_API_KEYS等。使用 -e 参数添加,如 -e OPENAI_API_BASE_URL=http:xxxx.com -e OPENAI_API_KEYS=xxxxxxxxxxx

运行完成后,使用浏览器访问http://localhost:3000,即可进入open-webui的交互界面。或者使用http://ip:3000访问。
400

第一次访问时,需要创建一个用户,输入用户名和密码,然后点击Sign Up即可。

3.2 Open WebUI的配置与使用

3.2.1 管理员权限与账号配置

首次注册登录的账号默认为管理员账号,也是唯一的管理员账号,为防止账号密码丢失导致无法登录,或者新注册的用户需要管理员激活等,建议在登录后,创建第二个账号,然后将第二个账号设置为管理员账号。

设置方法: 点击右下角的用户头像,选择Admin Panel,然后点击右上角的+号,创建一个RoleAdmin的用户,键入用户名、邮箱和密码,点击Submit即可。
400

设置新建用户无需激活:点击右下角的用户头像,选择Admin Panel,然后点击右上角的Admin Settings,选择General,将Default User Rolepending改为user即可。自此,新创建的用户无需管理员激活即可登录。
400

3.2.2 配置ollama服务链接与模型下载

连接ollama服务

点击右下角的用户头像,选择Settings,选择Connections,键入Ollama Base URLhttp://host.docker.internal:11434,点击右侧按钮测试Ollama服务的连接,连接成功会有信息提示。

如果ollama服务是在其他机器上,可以将host.docker.internal改为ip地址。

下载模型

点击右下角的用户头像,选择Settings,选择Models,在Pull a model from Ollama.com文本框中键入需要下载的模型,如llama3:8b号,点击下载按钮,等待下载完成后即可。

模型下载的来源和名称查询同ollama

3.3 异常问题与解决

3.3.1 open-webui无法连接ollama服务

如果遇到open-webui无法连接ollama服务的情况,通常是因为WebUI的docker容器无法访问到127.0.0.1:11434(host.docker.internal:11434)服务的原因,可以通过在docker命令中加入--network=host来解决。请注意:端口号由3000变为8080,访问链接为:http://localhost:8080

示例命令如下:

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 1

官方文档地址 : https://docs.openwebui.com/getting-started/troubleshooting

3.3.2 open-webui下载模型失败或中断

因网络问题下载中断可直接重试继续下载,ollama支持断点续传,不会重复下载已下载的部分。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/空白诗007/article/detail/854053
推荐阅读
相关标签
  

闽ICP备14008679号