当前位置:   article > 正文

本地部署 Ollama_ollama本地部署

ollama本地部署

0. Ollama 能帮我们做什么

在本地启动并运行大型语言模型

运行 Llama 2、Code Llama 和其他模型。自定义并创建自己的。

1. 下载 Ollama

访问 https://ollama.ai/download,根据你使用的系统,下载相应版本。

这里以 Linux 为例。(20240216时点,已经支持 Windows)

在这里插入图片描述

2. 安装 Ollama

curl https://ollama.ai/install.sh | sh
  • 1

3. 使用 Ollama

访问 https://ollama.ai/library,检索你想使用的模型,然后执行下面命令运行,以 llama2 为例

ollama run llama2
  • 1

4. Ollama 和 Langchain 的集成

后续有需要时,在补充详细说明

参考地址:

完结!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/498370
推荐阅读
相关标签
  

闽ICP备14008679号