当前位置:   article > 正文

windows通过ollama快速部署大语言模型,CPU也可跑_千问7b ollama

千问7b ollama

首先在实际操作之前我们先了解一下什么是ollama:Ollama 是一个支持在本地运行大语言模型的工具,兼容 Windows、Linux 和 MacOS 操作系统。使用 Ollama,您仅需一行命令即可启动模型。

那么既然ollama是一个工具就必然是为我们解决掉了很多不必要的麻烦,我们只需要安装好ollama这个工具就可以轻松实现大语言模型的部署。

我们先来到这个网址下载ollama:https://ollama.com/download

点击windows,选择   Download for Windows (Preview)   进行下载

下载好安装包后直接双击安装,出现安装界面后点击install

等待安装完毕后打开原来下载ollama的地方选择 Models ,之后会出现很多个开源的模型,选择一个模型点击

那么我们以阿里的千问模型为例 ,选择qwen,在qwen大模型中存在不同大小的模型参数,也可以选择,也可以不选择保持默认,我们默认,复制命令

ollama run qwen

打开终端,将复制的命令行粘贴

 等待安装完成后发送问题并得到回答就是安装成功了

#下一期实现怎么使用openai WEBUI界面

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/758107
推荐阅读
相关标签
  

闽ICP备14008679号