赞
踩
VMware版本:VMware Workstation Full v12.1.0-3272444 中文正式版
镜像版本:CentOS-7-x86_64-DVD-2009
sudo yum update
注意:安装过程中会多次提示:“Is this ok [y/N]”: ,需要手动键入“y”,才能继续进程,后续安装过程同样会遇到这个提示,不会再赘述。
sudo yum check-update
这里举例我常用的升级命令:
- sudo yum install epel-release
- sudo yum install python3
- sudo yum install python3-devel
- sudo yum install python3-pip
- python3 --version
curl -fsSL https://ollama.com/install.sh | sh
1000Mbps的光纤,蹲个坑回来下了这么点...屑。
- ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q4
-
- ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q8
-
- ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-fp16
模型的下载速度比较快,小十分钟就能下好。
模型的版本越高、文件越大、运算力越好、越吃性能,我装的是q8_0版本,这里有个q8_0模型在线版的url,安装过程中可以进去把玩一下(要翻墙):https://huggingface.co/spaces/llamafactory/Llama3-8B-Chinese-Chat
可以问它一些中英互译比较有歧义的问题,来测试它对中文的语言理解和生成能力,不深入演示了,CPU要被干烧了。
- [llama3@Llama3 ~]$ ollama list
- NAME ID SIZE MODIFIED
- wangshenzhi/llama3-8b-chinese-chat-ollama-q8:latest 6739fd08efd6 8.5 GB 21 minutes ago
- [llama3@Llama3 ~]$ ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q8
- >>> Send a message (/? for help)
Open WebUI是一个可拓展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行器,包括Ollama和OpenAI 兼容API。简单地说就是给大模型提供一个图形化界面,以及生成一个API,后续就可以通过特定的IP+端口号在浏览器登陆大模型了。
- sudo yum install -y yum-utils
- sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
- sudo yum install docker-ce
- sudo systemctl start docker
- sudo systemctl enable docker
- docker --version
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
挂一天一夜,基本上能下完。
安装完之后,可以用命令看进程,看到WebUI是运行在docker容器之上的。
- [root@Llama3 ~]# docker ps
- CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
- 9bbab31dcda6 ghcr.io/open-webui/open-webui:main "bash start.sh" 15 hours ago Up 15 hours (healthy) 0.0.0.0:3000->8080/tcp, :::3000->8080/tcp open-webui
进去先注册账号,无需联网,相当于注册一个管理员账号。
语言可以设置成中文。
我已经安装过wangshenzhi/llama3-8b-chinese-chat-ollama-q8模型了,所以这里可以直接加载出来(忽略第四步,在这里直接在线拉取模型到本地,其实是可以的)。
如果您在从 Open WebUI 界面访问 Ollama 时遇到困难,这可能是因为 Ollama 默认配置为侦听受限网络接口。要启用从 Open WebUI 的访问,您需要将 Ollama 配置为侦听更广泛的网络接口。
systemctl edit ollama.service
记得“ESC”、“:wq”,保存并退出。
- [Service]
- Environment="OLLAMA_HOST=0.0.0.0"
- systemctl daemon-reload
- systemctl restart ollama
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。