赞
踩
打开Ollama的官网,整个网页上就只有一句显眼的话:Get up and running with large language models, locally. 中文意思是:在本地快速上手并运行大型语言模型。
Ollama 是一种假设存在的本地大模型运行框架,允许用户在自己的硬件环境中轻松部署和使用大规模预训练模型。
官网:https://ollama.com/
Gtihub:https://github.com/ollama/ollama
访问 Ollama 下载地址:https://ollama.com/download
1)macOS 版本
点击下方的“Download for macOS”按钮,下载安装文件的zip压缩包。打开解压缩后生成的文件 ollama.app,直接执行即可完成安装并运行。在终端窗口里输入:
ollama --version
返回版本信息即表示安装完成并正在运行。
2) Windows 版本
点击下方的“Download for Windows(preview)”按钮,下载 .exe 可执行安装文件。
执行下载的文件,安装过程中杀毒软件提示有病毒,关闭杀毒软件,或者将提示的执行文件加入信任白名单,即可完成安装和运行。
打开 cmd 窗口,在命令行输入执行:
ollama --version
如果返回版本信息,即表示安装成功!
Windows 和 macOS 在使用上几乎没有区别。访问 Ollama 官网,列举了很多大模型,我们可以从中找一个模型进行测试:
ollama pull qwen:0.5b-chat
下载完成后,运行此模型,在 cmd 中输入下面的命令:
ollama run qwen:0.5b-chat
简单测试一些,可以运行了:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。