当前位置:   article > 正文

ollama本地运行llama3:70b模型(Linux)_llama3 70b本地部署显存要求

llama3 70b本地部署显存要求

1.下载ollama

  1. # 下载ollama
  2. curl -fsSL https://ollama.com/install.sh | sh
  3. # 运行ollama(重新打开一个终端去运行ollama run llama3:70b)
  4. ollama serve

2.运行llama3:70b模型(最低要求64G运存+24G显存)

ollama run llama3:70b

3. 运行网页端(open-webui)

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/黑客灵魂/article/detail/895269
推荐阅读
相关标签
  

闽ICP备14008679号