赞
踩
这几天刚刚看到好兄弟分享的一段关于本地搭建AI的短视频,于是我按照视频里的讲解,进行了实践。感觉非常棒!!,马上整理成文字与大家分享一下。
在本地启动并运行大型语言模型,运行llama3、phi3和其他模型,自定义并创建您自己的。
首先进入Ollama网站,在浏览器的地址栏输入:https://ollama.com/,直接进入网站,如下图所示:
根据你的操作系统,点击Download进行下载。
本人的操作系统是macOS,芯片是M3。下载之后,直接进行安装。
输入 Ollama 命令,正常的得出命令行输出,表示已经安装成功,下面有 ollama 的常用命令
localhost:~ root# ollama
Usage:
ollama [flags]
ollama [command]
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。