当前位置:   article > 正文

LLM之ollama:ollama的简介、安装和使用方法、案例应用之详细攻略_ollama中文说明书

ollama中文说明书

LLM之ollama:ollama的简介、安装和使用方法、案例应用之详细攻略

目录

ollama的简介

1、模型库

ollama的安装和使用方法

1、下载

macOS、Windows、Linux

Docker

相关库

2、快速入门

3、自定义模型

从 GGUF 导入

从 PyTorch 或 Safetensors 导入

自定义提示

可以使用提示来定制 Ollama 库中的模型。例如,要定制 llama2 模型:

创建一个 Modelfile:

接下来,创建并运行模型:

4、CLI 参考

创建模型

拉取模型

删除模型

复制模型

多行输入

多模态模型

将prompt作为参数传递

列出计算机上的型号

开始Ollama

5、构建

运行本地构建

6、REST API

生成响应

与模型聊天

ollama的案例应用


ollama的简介

ollama是一款可以开始使用本地的大型语言模型。启动并运行大型语言模型。运行Llama 2、Code Llama和其他模型。自定义并创建您自己的模型。

官网:Ollama

GitHub地址:GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, Gemma, and other large language models.

1、模型库

Ollama 支持 ollama.com/library 上可用的一系列模型。

注意:运行 7B 模型时,您应至少有 8GB 的可用 RAM,运行 13B 模型时需要 16GB,运行 33B 模型时需要 32GB。

以下是一些可下载的示例模型:

ModelParametersSizeDownload
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral
Dolphin Phi2.7B1.6GBollama run dolphin-phi
Phi-22.7B1.7GBollama run phi
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Orca Mini3B1.9GBollama run orca-mini
Vicuna7B3.8GBollama run vicuna
LLaVA7B4.5GBollama run llava
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b

ollama的安装和使用方法

1、下载

macOS、Windows、Linux

macOS:https://ollama.com/download/Ollama-darwin.zip

Windows:https://ollama.com/download/OllamaSetup.exe

Linux:

curl -fsSL https://ollama.com/install.sh | sh

手动安装说明:ollama/docs/linux.md at main · ollama/ollama · GitHub

Docker

Ollama 官方 Docker 镜像 ollama/ollama 已在 Docker Hub 上可用。

https://hub.docker.com/r/ollama/ollama

相关库

ollama-python

ollama-js

2、快速入门

要运行并与 Llama 2 聊天:

ollama run llama2

3、自定义模型

从 GGUF 导入

Ollama 支持在 Modelfile 中导入 GGUF 模型:

创建一个名为 Modelfile 的文件,其中包含一个 FROM 指令,指向要导入的模型的本地文件路径。

FROM ./vicuna-33b.Q4_0.gguf

在 Ollama 中创建模型

ollama create example -f Modelfile

运行模型

ollama run example

从 PyTorch 或 Safetensors 导入

有关导入模型的指南,请参阅指南。

ollama/docs/import.md at main · ollama/ollama · GitHub

自定义提示

可以使用提示来定制 Ollama 库中的模型。例如,要定制 llama2 模型:

ollama pull llama2

创建一个 Modelfile:

FROM llama2

# set the temperature to 1 [higher is more creative, lower is more coherent]

PARAMETER temperature 1  将温度设置为 1 [较高为更具创造性,较低为更连贯]

# set the system message设置系统消息

SYSTEM """

You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.

"""

FROM llama2

接下来,创建并运行模型:

ollama create mario -f ./Modelfile

ollama run mario

>>> hi

Hello! It's your friend Mario.

有关更多示例,请参阅示例目录。有关使用 Modelfile 的更多信息,请参阅 Modelfile 文档。

4、CLI 参考

创建模型

使用 Modelfile 创建模型的命令是 ollama create。

ollama create mymodel -f ./Modelfile

拉取模型

ollama pull llama2

此命令还可用于更新本地模型。只会拉取差异。

删除模型

ollama rm llama2

复制模型

ollama cp llama2 my-llama2

多行输入

对于多行输入,可以使用"""

>>> """Hello,

... world!

... """

I'm a basic program that prints the famous "Hello, world!" message to the console.

多模态模型

>>> What's in this image? /Users/jmorgan/Desktop/smile.png

The image features a yellow smiley face, which is likely the central focus of the picture.

将prompt作为参数传递

$ ollama run llama2 "Summarize this file: $(cat README.md)"

 Ollama is a lightweight, extensible framework for building and running language models on the local machine. It provides a simple API for creating, running, and managing models, as well as a library of pre-built models that can be easily used in a variety of applications.

列出计算机上的型号

ollama list

开始Ollama

在不运行桌面应用程序的情况下启动Ollama时使用Ollama服务。

ollama serve

5、构建

安装 cmake 和 go:

brew install cmake go

然后生成依赖项:

go generate ./...

然后构建二进制文件:

go build .

有关更详细的说明,请参阅开发人员指南

运行本地构建

接下来,启动服务器:

./ollama serve

最后,在另一个 shell 中,运行一个模型:

./ollama run llama2

6、REST API

Ollama 具有用于运行和管理模型的 REST API。

生成响应

curl http://localhost:11434/api/generate -d '{

"model": "llama2",

"prompt":"天空为什么是蓝色?"

}'

与模型聊天

curl http://localhost:11434/api/chat -d '{

"model": "mistral",

"messages": [

{ "role": "user", "content": "天空为什么是蓝色?" }

]

}'

有关所有端点的 API 文档,请参阅 API 文档。

ollama的案例应用

持续更新中……

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/498391
推荐阅读
相关标签
  

闽ICP备14008679号