赞
踩
Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
Ollama官网:https://ollama.com/
模型库:https://ollama.com/library
GIthub地址:https://github.com/ollama/ollama
访问Ollama官网,点击【Download】按钮进入下载页面,选择Windows版本下载
下载后直接运行安装包,进行安装
软件本身是没有图形化界面的,需要用终端运行,以Windows PowerShell为例,运行下面的指令进行测试
ollama list
其他常用命令:
- ollama serve 启动ollama
- ollama create 从模型文件创建模型
- ollama show 显示模型信息
- ollama run 运行模型
- ollama pull 从注册表中拉取模型
- ollama push 将模型推送到注册表
- ollama list 列出模型
- ollama cp 复制模型
- ollama rm 删除模型
- ollama help 获取有关任何命令的帮助信息
默认的模型保存路径位于C盘,(C:\Users<username>.ollama\models),可以通过设置OLLAMA_MODELS
进行修改,然后重启终端,重启ollama服务(需要去状态栏里关掉程序)
setx OLLAMA_MODELS "D:\ollama_model"
我们可以去电脑环境变量中查看是否改变成功
访问模型库,找到需要的模型,比如我打算使用qwen2,点进去可以选择参数量,以及查看模型介绍
比如我要下载qwen2的0.5B参数模型,在终端运行
ollama run qwen2:0.5b
即可自动开始下载和加载
直接在终端交流
至此,在Windows本地部署Ollama并运行qwen2模型已经完成,如果需要Web或者客户端支持,可以查看GitHub里的推荐
访问GitHub:GitHub - ollama/ollama-python: Ollama Python library
有详细的教程,关于如何用Python调用本地的Ollama
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。