赞
踩
目录
Ollama 是一个能在本地机器上轻松构建和运行大型语言模型的轻量级、可扩展框架,适用于多种场景,具有易于使用、资源占用少、可扩展性强等特点。
Ollama 是一个能在本地机器上轻松构建和运行大型语言模型的轻量级、可扩展框架,适用于多种场景,具有易于使用、资源占用少、可扩展性强等特点。
官网地址:https://ollama.com/
-
- curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
-
##如果拉取失败可以使用浏览器访问下载上传至服务器的/usr/bin/目录并名称改为ollama
chmod +x /usr/bin/ollama
useradd -r -s /bin/false -m -d /usr/share/ollama ollama
- cat <<EOF>> /etc/systemd/system/ollama.service
- [Unit]
-
- Description=Ollama Service
-
- After=network-online.target
-
-
-
- [Service]
-
- Environment="OLLAMA_HOST=0.0.0.0:11434" ###默认只能本地回环地址可访问,添加此行所有地址均可访问
-
- ExecStart=/usr/bin/ollama serve
-
- User=ollama
-
- Group=ollama
-
- Restart=always
-
- RestartSec=3
-
-
-
- [Install]
-
- WantedBy=default.target
-
- EOF

- #重新加载服务文件,启动并设置开机自启
-
- systemctl daemon-reload
-
- systemctl enable ollama --now
#到这里ollama就安装完成了!
ollama pull qwen:0.5b
#由于模型镜像比较大拉取速度可能会有一些慢大概需要半个小时,当然速度取决于网速
ollama list
ollama run qwen:0.5b
#进入交互界面随便问一些问题
>>> 马上就要中考了,给所有考生写一份鼓励信
##CPU/GPU的性能越高模型响应速度越快
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。