当前位置:   article > 正文

Meta Llama3 大模型在 Mac 上的部署和运行_llama3.1 mac

llama3.1 mac

就在前不久,Meta 正式发布了最新版本的开源大模型 Llama3 ,是迄今为止能力最强的开源大模型。

Llama3 提供了两个版本 8B 和 70B ,如果你不了解 B 代表什么含义,参考这里: # 关于大模型的一些基础内容

其中,8B 版本适合在消费级 GPU 上高效部署和开发;70B 版本则专为大规模 AI 应用设计。每个版本都包括基础和指令调优两种形式。

Meta 首席执行官扎克伯格宣布:基于最新的Llama 3模型,Meta 的 AI 助手现在已经覆盖Instagram、WhatsApp、Facebook 等全系应用。

也就说 Llama3 已经上线生产环境并可用了。

Llama3 的开源地址如下:

https://github.com/meta-llama/llama3

按照开源文档的安装说明也许能把 Llama3 跑起来,但这个太不适合普通人,还有更简单的方法。

这里就不得不介绍一下 Ollama 了,也就是下面这个小羊驼。

Ollama 是一个基于 Go 语言开发的简单易用的本地大语言模型运行框架

它可以非常方便地在本地部署各种模型并通过接口使用,有点类似于 Docker 加载各种镜像容器。并且随着 Ollama 的生态在逐渐完善,支持的模型也会更多,将来会更加方便地在自己电脑上运行各种大模型。

其实在 Ollama 之前也有一些方案可以做大模型本地部署,但运行效果往往不尽如人意,比如 LocalAI等,另外还需要用到 Windows + GPU 才行,不像 Ollama 直接在 Mac 都能跑了,比如我的电脑就是 Mac Studio 。

Ollama 的官方地址: https://ollama.com/

点击下载,选择对应的平台下载就行,也可以在 Ollama 的 Github 地址上下载:

https://github.com/ollama/ollama

在 Github 主页上可以看到 Ollama 目前支持的模型。

ModelParametersSizeDownload
Llama 38B4.7GBollama run llama3
Llama 370B40GBollama run llama3:70b
Mistral7B4.1GBollama run mistral
Dolphin Phi2.7B1.6GBollama run dolphin-phi
Phi-22.7B1.7GBollama run phi
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Orca Mini3B1.9GBollama run orca-mini
LLaVA7B4.5GBollama run llava
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b
Solar10.7B6.1GBollama run solar

第一个就是要用到的 Llama3 了,按如下命令直接运行就行:

代码语言:javascript

ollama run llama3:8b
  • 1

效果如图:

到了这一步就可以愉快和大模型进行亲密交流了。

如何系统的去学习AI大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】

推荐阅读
相关标签