当前位置:   article > 正文

Ollama在Windows11部署与使用QWen2模型_利用ollma部署qwen2

利用ollma部署qwen2

0,Ollama介绍

Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。

Ollama官网:https://ollama.com/

模型库:https://ollama.com/library

GIthub地址:https://github.com/ollama/ollama

1,下载与安装

访问Ollama官网,点击【Download】按钮进入下载页面,选择Windows版本下载

下载后直接运行安装包,进行安装

软件本身是没有图形化界面的,需要用终端运行,以Windows PowerShell为例,运行下面的指令进行测试

ollama list

其他常用命令:

  1. ollama serve 启动ollama
  2. ollama create 从模型文件创建模型
  3. ollama show 显示模型信息
  4. ollama run 运行模型
  5. ollama pull 从注册表中拉取模型
  6. ollama push 将模型推送到注册表
  7. ollama list 列出模型
  8. ollama cp 复制模型
  9. ollama rm 删除模型
  10. ollama help 获取有关任何命令的帮助信息

 2,更改模型保存路径

默认的模型保存路径位于C盘,(C:\Users<username>.ollama\models),可以通过设置OLLAMA_MODELS进行修改,然后重启终端,重启ollama服务(需要去状态栏里关掉程序)

setx OLLAMA_MODELS "D:\ollama_model"

我们可以去电脑环境变量中查看是否改变成功

3,下载大模型

访问模型库,找到需要的模型,比如我打算使用qwen2,点进去可以选择参数量,以及查看模型介绍

比如我要下载qwen2的0.5B参数模型,在终端运行

ollama run qwen2:0.5b

即可自动开始下载和加载

4,测试模型

直接在终端交流

至此,在Windows本地部署Ollama并运行qwen2模型已经完成,如果需要Web或者客户端支持,可以查看GitHub里的推荐

5,Ollama Python库

访问GitHub:GitHub - ollama/ollama-python: Ollama Python library

有详细的教程,关于如何用Python调用本地的Ollama

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Li_阴宅/article/detail/791141
推荐阅读
相关标签
  

闽ICP备14008679号