当前位置:   article > 正文

使用 Swift 为您的 Mac 构建本地 LLAMA 3 应用程序(教程含源码)_ollama m3pro

ollama m3pro

最近,Meta 发布了 LLAMA 3 并允许大众使用它(使其开源)。

为了测试配备精美 M3 Pro 芯片的新款 MacBook Pro 在设备语言模型上的处理速度,我决定下载该模型并制作一个 Mac 应用程序,以便随时从菜单栏与模型聊天。在这篇文章中,我将教你,是的,你,如何在 Mac 上本地部署你自己的语言模型。

在这里插入图片描述

设置 Ollama/部署本地模型

这部分比较简单。谢谢 Ollama 开发者!

第一步,访问ollama.com并按照其下载和设置说明进行操作。

也就是说,您将下载 Ollama 应用程序,打开它后,您将经历一个将 Ollama 安装到您的 Mac 上的设置过程。

安装 Ollama 后,我们可以下载并运行我们的模型。在本文中,我们将使用LLAMA3:8b,因为这是我的 M3 Pro 32GB 内存 Mac Book Pro 运行效果最好的。

为此,我们将打开终端并 输入

 ollama run llama3
  • 1

这将下载模型并启动文本界面,您可以在其中通过终端与模型进行交互。

由于我之前运行过此命令,因此使用此命令只是启动模型,而不会导致它再次下载。

在这里插入图片描述
您可以使用以下命令退出该

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/码创造者/article/detail/785765
推荐阅读
相关标签
  

闽ICP备14008679号