赞
踩
本文将介绍使用开源工具Ollama(60.6k⭐)部署LLaMa大模型,以及使用Open WebUI搭建前端Web交互界面的方法。
我们先来过一遍几个相关的概念,对这块比较熟悉的朋友可跳过。
大规模语言模型(Large Language Models, LLMs),顾名思义是指在大量语料数据的基础上训练成的模型,能够模拟人类的语言风格生成较为生动的文本。这类模型的主要特征有:
LLaMA是一种大规模语言模型,由Meta AI基于Transformer深度学习框架开发。该模型旨在生成各种风格的高质量文本(例如创意写作、对话甚至诗歌),能够胜任以下工作:
官网:Ollama
API文档:ollama/docs/api.md at main · ollama/ollama (github.com)
支持的模型列表:library
一款可以快速部署大模型的工具。
官网:Open WebUI
相关介绍及源码:open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) (github.com)
Open WebUI 是一个可视化的Web交互环境,它拥有清新简约的UI风格,具有可扩展、功能丰富、用户友好、自托管的特点,可以完全离线运行。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。
本文介绍的方法使用于Linux系统,同样适用于Windows系统的WSL(安装方法可参见我的这篇文章)。
1、下载Ollama
Linux系统的安装命令如下:
curl -fsSL https://ollama.com/install.sh | sh
※此外官方还提供了macOS和Windows的下载方式。
2、下载llama3模型
ollama run llama3
※在这里可以看到该命令的相关介绍。
上述命令将自动拉取模型,并进行sha256验签。处理完毕后自动进入llama3的运行环境,可以使用中文或英文进行提问,ctrl+D退出。
3、配置服务
为使外网环境能够访问到服务,需要对HOST进行配置。
打开配置文件:vim /etc/systemd/system/ollama.service
,根据情况修改变量Environment
:
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_HOST=服务器内网IP地址:11434"
3、启动服务
启动服务的命令:ollama serve
首次启动可能会出现以下两个提示:
Couldn’t find ‘/home/用户名/.ollama/id_ed25519’. Generating new private key.
该提示表示文件系统中不存在ssh私钥文件,此时命令将自动帮我们生成该文件,并在命令行中打印相应的公钥。
Error: listen tcp 127.0.0.1:11434: bind: address already in use
看到该提示,大概率服务已在运行中,可以通过netstat -tulpn | grep 11434
命令进行确认。
# ubuntu/debian
sudo apt update
sudo apt install lsof
stop ollama
lsof -i :11434
kill <PID>
ollama serve
# centos
sudo yum update
sudo yum install lsof
stop ollama
lsof -i :11434
kill <PID>
ollama serve
如果您使用的是MacOS,可在
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。