当前位置:   article > 正文

win:Ollama安装和大模型的集成_ollama windows 安装

ollama windows 安装

一、Ollama介绍

Ollama 是一个用于在本地运行大型语言模型 (LLM) 的开源框架。它支持多种平台,包括 Windows、Linux 和 macOS。

Ollama 的主要功能包括:

  • 将 LLM 模型转换为可执行文件

  • 提供简单的命令行界面来运行 LLM 模型

  • 支持多种 LLM 模型,包括 LaMDA、Bloom 和 Megatron-Turing NLG

Ollama 的优势包括:

  • 易于使用:Ollama 提供简单的命令行界面,即使是没有经验的用户也可以轻松使用。

  • 高性能:Ollama 使用高效的 C++ 代码编写,可以充分利用您的硬件资源。

  • 可扩展性:Ollama 支持多种 LLM 模型,并且可以扩展以支持新的模型。

Ollama 的使用场景包括:

  • 研究:Ollama 可用于研究人员开发和测试新的 LLM 模型。

  • 教育:Ollama 可用于教育工作者向学生介绍 LLM 技术。

  • 商业:Ollama 可用于企业开发 LLM 驱动的应用程序。

  • Ollama 的官方网站:https://ollama.com/

二、Ollama为什么能够脱颖而出

Ollama 能够脱颖而出,主要有以下几个原因:

易用性: Ollama 提供简单的命令行界面,即使是没有经验的用户也可以轻松使用。

高性能: Ollama 使用高效的 C++ 代码编写,可以充分利用您的硬件资源。

可扩展性: Ollama 支持多种 LLM 模型,并且可以扩展以支持新的模型。

活跃的社区: Ollama 拥有一个活跃的社区,可以为用户提供帮助和支持。

免费开源: Ollama 是免费开源的,任何人都可以自由使用和修改。

以下是一些具体的原因:

Ollama 提供了一个简单的命令行界面,即使是没有经验的用户也可以轻松使用。 这与其他 LLM 框架形成鲜明对比,这些框架通常需要用户编写复杂的代码。

  • Ollama 使用高效的 C++ 代码编写,可以充分利用您的硬件资源。 这意味着 Ollama 可以比其他 LLM 框架更快地运行 LLM 模型。

  • Ollama 支持多种 LLM 模型,并且可以扩展以支持新的模型。 这使得 Ollama 能够满足各种用户的需求。

  • Ollama 拥有一个活跃的社区,可以为用户提供帮助和支持。 这对于初学者和经验丰富的用户都非常有帮助。

  • Ollama 是免费开源的,任何人都可以自由使用和修改。 这使得 Ollama 成为一个非常具有吸引力的选择。

总而言之,Ollama 是一个易于使用、高性能、可扩展且免费开源的 LLM 框架。这些因素使得 Ollama 能够脱颖而出。

三、在 Windows 上使用 Ollama

步骤1:下载和安装

  1. 访问 Ollama Windows Preview 页面,下载OllamaSetup.exe安装程序。

  2. 双击文件,点击「Install」开始安装。

  3. 在 Windows 中安装 Ollama

在这里插入图片描述
4. 安装完成之后,就可以开始在 Windows 上使用 Ollama 了。

步骤2:启动Ollama并获取模型

要启动 Ollama 并从模型库中获取开源 AI 模型,请按以下步骤操作:

  1. 在「开始」菜单中点击 Ollama 图标,运行后会在任务栏托盘中驻留一个图标。
    在这里插入图片描述
    在这里插入图片描述

  2. 开始菜单中打开powershell,以管理员身份运行

  3. 执行以下命令来查看 Ollama,这样就是安装成功了。
    在这里插入图片描述

  4. 执行以下命令来运行 Ollama,这样就是安装成功了。

ollama run [modelname]
  • 1

在这里插入图片描述

  1. /bye是离开对话窗口。

  2. ollama list可以列出安装了那些大模型。
    在这里插入图片描述

!!!如果不知道准确的大模型名字,我们可以前往ollama官网,我们可以看到有很多大模型,
在这里插入图片描述
我们以gamma为例,点开,我们可以复制到终端,但是默认的一般是最新的。

在这里插入图片描述
因此我们可以根据,电脑显存的大小,选择合适的参数的模型。比如我的笔记本是RTX4060 8G,那么最大可以是7B的参数,因此我选择,gamma:7b,copy到powershell安装即可。
在这里插入图片描述

步骤3:打开Ollama

powershell中输入:ollama serve或者在开始菜单中单击。
为了验证ollama是否启动成功,我们可以在浏览器中输出:http://127.0.0.1:11434/,显示:Ollama is running,如下界面即启动成功。
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/679935
推荐阅读
相关标签
  

闽ICP备14008679号