当前位置:   article > 正文

Linux:ollama大模型部署_ollama systemctl服务启动目录

ollama systemctl服务启动目录

目录

Ollama 是一个能在本地机器上轻松构建和运行大型语言模型的轻量级、可扩展框架,适用于多种场景,具有易于使用、资源占用少、可扩展性强等特点。

1.安装下载ollama

2.为 Ollama 创建一个用户

3.为ollama创建服务文件

4.启动ollama服务

5.拉取语言模型镜像

(1) pull一个语言模型

(2) 查看本地模型

(3) 本地运行测试模型


Ollama 是一个能在本地机器上轻松构建和运行大型语言模型的轻量级、可扩展框架,适用于多种场景,具有易于使用、资源占用少、可扩展性强等特点。

官网地址:https://ollama.com/

中文地址:https://ollama.fan/getting-started/

1.安装下载ollama

  1. curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama

##如果拉取失败可以使用浏览器访问下载上传至服务器的/usr/bin/目录并名称改为ollama

chmod +x /usr/bin/ollama

2.为 Ollama 创建一个用户

useradd -r -s /bin/false -m -d /usr/share/ollama ollama

3.为ollama创建服务文件

  1. cat <<EOF>> /etc/systemd/system/ollama.service
  2. [Unit]                    
  3. Description=Ollama Service
  4. After=network-online.target
  5. [Service]
  6. Environment="OLLAMA_HOST=0.0.0.0:11434" ###默认只能本地回环地址可访问,添加此行所有地址均可访问
  7. ExecStart=/usr/bin/ollama serve
  8. User=ollama
  9. Group=ollama
  10. Restart=always
  11. RestartSec=3
  12. [Install]
  13. WantedBy=default.target
  14. EOF

4.启动ollama服务

  1. #重新加载服务文件,启动并设置开机自启
  2. systemctl daemon-reload
  3. systemctl enable ollama --now

#到这里ollama就安装完成了!

5.拉取语言模型镜像

(1) pull一个语言模型
ollama pull qwen:0.5b

#由于模型镜像比较大拉取速度可能会有一些慢大概需要半个小时,当然速度取决于网速

(2) 查看本地模型
ollama list

(3) 本地运行测试模型
ollama run qwen:0.5b

#进入交互界面随便问一些问题

>>> 马上就要中考了,给所有考生写一份鼓励信

##CPU/GPU的性能越高模型响应速度越快 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/在线问答5/article/detail/895336
推荐阅读
相关标签
  

闽ICP备14008679号