赞
踩
最近,Meta 发布了 LLAMA 3 并允许大众使用它(使其开源)。
为了测试配备精美 M3 Pro 芯片的新款 MacBook Pro 在设备语言模型上的处理速度,我决定下载该模型并制作一个 Mac 应用程序,以便随时从菜单栏与模型聊天。在这篇文章中,我将教你,是的,你,如何在 Mac 上本地部署你自己的语言模型。
这部分比较简单。谢谢 Ollama 开发者!
第一步,访问ollama.com并按照其下载和设置说明进行操作。
也就是说,您将下载 Ollama 应用程序,打开它后,您将经历一个将 Ollama 安装到您的 Mac 上的设置过程。
安装 Ollama 后,我们可以下载并运行我们的模型。在本文中,我们将使用LLAMA3:8b,因为这是我的 M3 Pro 32GB 内存 Mac Book Pro 运行效果最好的。
为此,我们将打开终端并 输入
ollama run llama3
这将下载模型并启动文本界面,您可以在其中通过终端与模型进行交互。
由于我之前运行过此命令,因此使用此命令只是启动模型,而不会导致它再次下载。
您可以使用以下命令退出该
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。