当前位置:   article > 正文

vLLM~_vllm 量化

vllm 量化

大模型时代,各种优化方案被提出,这次吞吐量、内存占用大等问题被拿下了。

随着大语言模型(LLM)的不断发展,这些模型在很大程度上改变了人类使用 AI 的方式。然而,实际上为这些模型提供服务仍然存在挑战,即使在昂贵的硬件上也可能慢得惊人。

现在这种限制正在被打破。最近,来自加州大学伯克利分校的研究者开源了一个项目 vLLM,该项目主要用于快速 LLM 推理和服务。vLLM 的核心是 PagedAttention,这是一种新颖的注意力算法,它将在操作系统的虚拟内存中分页的经典思想引入到 LLM 服务中。

配备了 PagedAttention 的 vLLM 将 LLM 服务状态重新定义:它比 HuggingFace Transformers 提供高达 24 倍的吞吐量,而无需任何模型架构更改。

  • 论文:https://arxiv.org/abs/2309.06180

  • 代码:https://github.com/vllm-project/vllm

  • 文档:https://vllm.readthedocs.io/

总结而言,vLLM 具有如下特点:

  • 最先进的服务吞吐量;

  • PagedAttention 可以有效的管理注意力的键和值;

  • 动态批处理请求;

  • 优化好的 CUDA 内核;

  • 与流行的 HuggingFace 模型无缝集成;

  • 高吞吐量服务与各种解码算法,包括并行采样、beam search 等等;

  • 张量并行以支持分布式推理;

  • 流输出;

  • 兼容 OpenAI 的 API 服务。

vLLM 还可以无缝支持许多 Huggingface 模型,包括以下架构:

  • GPT-2 (gpt2、gpt2-xl 等);

  • GPTNeoX (EleutherAI/gpt-neox-20b、databricks/dolly-v2-12b、stabilityai/stablelm-tuned-alpha-7b 等);

  • LLaMA (lmsys/vicuna-13b-v1.3、young-geng/koala、openlm-research/open_llama_13b 等)

  • OPT (facebook/opt-66b、facebook/opt-iml-max-30b 等)。

值得一提的是,vLLM 已被部署在 Chatbot Arena 和 Vicuna 中。项目作者之一 Zhuohan Li 表示,自发布以来,vLLM 一直是 Chatbot Arena 和 Vicuna Demo 背后的无名英雄,它能处理高峰流量并高效地为流行模型提供服务。它已将 LMSYS(一个开放的研究组织,旨在让每个人都能访问大型模型) 使用的 GPU 数量减少了一半,同时每天平均处理 30K 次对话。

vLLM 性能如何?

该研究将 vLLM 的吞吐量与最流行的 LLM 库 HuggingFace Transformers (HF),以及之前具有 SOTA 吞吐量的 HuggingFace Text Generation Inference(TGI)进行了比较。此外,该研究将实验设置分为两种:LLaMA-7B,硬件为 NVIDIA A10G GPU;另一种为 LLaMA-13B,硬件为 NVIDIA A100 GPU (40GB)。他们从 ShareGPT 数据集中采样输入 / 输出长度。结果表明,vLLM 的吞吐量比 HF 高 24 倍,比 TGI 高 3.5 倍。

vLLM 的吞吐量比 HF 高 14 倍 - 24 倍,比 TGI 高 2.2 倍 - 2.5 倍。

vLLM 的吞吐量比 HF 高 8.5 - 15 倍,比 TGI 高 3.3 - 3.5 倍。

PagedAttention:解决内存瓶颈

该研究发现,在 vLLM 库中 LLM 服务的性能受到内存瓶颈的影响。在自回归解码过程中,所有输入到 LLM 的 token 会产生注意力键和值的张量,这些张量保存在 GPU 内存中以生成下一个 token。这些缓存键和值的张量通常被称为 KV 缓存,其具有:

  • 内存占用大:在 LLaMA-13B 中,缓存单个序列最多需要 1.7GB 内存;

  • 动态且不可预测:KV 缓存的大小取决于序列长度,这是高度可变和不可预测的。因此,这对有效地管理 KV 缓存挑战较大。该研究发现,由于碎片化和过度保留,现有系统浪费了 60% - 80% 的内存。

为了解决这个问题,该研究引入了 PagedAttention,这是一种受操作系统中虚拟内存和分页经典思想启发的注意力算法。与传统的注意力算法不同,PagedAttention 允许在非连续的内存空间中存储连续的键和值。具体来说,PagedAttention 将每个序列的 KV 缓存划分为块,每个块包含固定数量 token 的键和值。在注意力计算期间,PagedAttention 内核可以有效地识别和获取这些块。

PagedAttention:KV 缓存被划分成块,块不需要在内存空间中连续。

因为块在内存中不需要连续,因而可以用一种更加灵活的方式管理键和值,就像在操作系统的虚拟内存中一样:可以将块视为页面,将 token 视为字节,将序列视为进程。序列的连续逻辑块通过块表映射到非连续物理块中。物理块在生成新 token 时按需分配。

使用 PagedAttention 的请求的示例生成过程。

在 PagedAttention 中,内存浪费只会发生在序列的最后一个块中。这使得在实践中可以实现接近最佳的内存使用,仅浪费不到 4 %。这种内存效率的提升被证明非常有用,允许系统将更多序列进行批处理,提高 GPU 使用率,显著提升吞吐量。

PagedAttention 还有另一个关键优势 —— 高效的内存共享。例如在并行采样中,多个输出序列是由同一个提示(prompt)生成的。在这种情况下,提示的计算和内存可以在输出序列中共享。

并行采样示例。

PagedAttention 自然地通过其块表格来启动内存共享。与进程共享物理页面的方式类似,PagedAttention 中的不同序列可以通过将它们的逻辑块映射到同一个物理块的方式来共享块。为了确保安全共享,PagedAttention 会对物理块的引用计数进行跟踪,并实现写时复制(Copy-on-Write)机制。

对于对多输出进行采样的请求,它的示例生成过程是这样的。

PageAttention 的内存共享大大减少了复杂采样算法的内存开销,例如并行采样和集束搜索的内存使用量降低了 55%。这可以转化为高达 2.2 倍的吞吐量提升。这种采样方法也在 LLM 服务中变得实用起来。

PageAttention 成为了 vLLM 背后的核心技术。vLLM 是 LLM 推理和服务引擎,为各种具有高性能和易用界面的模型提供支持。

是什么在背后默默支撑 Vicuna 和 Chatbot Arena

今年 4 月,LMSYS 公开发布了流行的 Vicuna(小羊驼)聊天机器人模型。从那时起,Vicuna 就在 Chatbot Arena 中为数百万用户提供服务。最开始,LMSYS 的开源聊天机器人 FastChat 采用基于 HF Transformer 的服务后端来为聊天 demo 提供服务。

随着 demo 变得越来越流行,峰值流量增加了几倍,导致 HF 后端成为一个严重的瓶颈。LMSYS 和 vLLM 团队展开合作并很快开发了 FastChat-vLLM 集成,使用 vLLM 作为新的后端,从而满足不断增长的需求(5 倍流量)。在 LMSYS 早期的内部微基准测试中,vLLM 服务后端可以实现的吞吐量是初始 HF 后端的 30 倍。

此外,自 4 月中旬以来,Vicuna、Koala 和 LLaMA 等最受欢迎的模型都已经成功地使用 FastChat-vLLM 集成服务。LMSYS 以 FastChat 为多模型聊天服务前端,以 vLLM 作为推理后端,这样可以利用大学赞助的有限 GPU,高吞吐量、低延迟地为数百万用户提供 Vicuna。

目前,LMSYS 正在将 vLLM 的使用范围扩展到更广泛的大模型,包括 Databricks Dolly、LAION 的 OpenAsssiant、Stability AI 的 stableLM。对于更多模型的支持正在开发并即将到来。

4 月至 5 月,Chatbot Arena 中 FastChat-vLLM 集成服务的请求情况。事实上,Chatbot Arena 中超过一半的请求都使用 vLLM 作为推理后端。 whaosoft aiot http://143ai.com   

vLLM 的使用还显著降低了运营成本。借助 vLLM,LMSYS 能够将用于处理上述流量的 GPU 数量减少 50%。vLLM 平均每天可以处理 30k 请求,峰值为 60k,这说明了 vLLM 的稳健性很强。

vLLM 的安装与使用

你可以通过以下 pip 命令安装 vLLM。

$ pip install vllm

vLLM 可以用于离线推理和在线服务。在使用 vLLM 进行离线推理任务时,你需要导入 vLLM 并在 Python 脚本中使用 LLM 类。

from vllm import LLMprompts = ["Hello, my name is", "The capital of France is"]  # Sample prompts.llm = LLM (model="lmsys/vicuna-7b-v1.3")  # Create an LLM.outputs = llm.generate (prompts)  # Generate texts from the prompts.

在使用 vLLM 进行在线服务时,你可以通过以下命令启动一个兼容 OpenAI API 的服务器。

$ python -m vllm.entrypoints.openai.api_server --model lmsys/vicuna-7b-v1.3

你还可以利用与 OpenAI API 相同的格式来查询服务器。

$ curl http://localhost:8000/v1/completions \-H "Content-Type: application/json" \-d '{        "model": "lmsys/vicuna-7b-v1.3",        "prompt": "San Francisco is a",        "max_tokens": 7,        "temperature": 0    }'

GPT 和 PaLM 等大型语言模型(LLM)的出现催生出了开始对我们的工作和日常生活产生重大影响的新应用,比如编程助理和通用型聊天机器人。

许多云计算公司正竞相以托管服务的方式提供这些应用。但是,运行这些应用的成本非常高,需要大量硬件加速器,如 GPU。根据最近的估计,相比于传统的关键词查询方法,处理一个 LLM 请求的成本超过其 10 倍以上。考虑到成本如此之高,提高 LLM 服务系统的吞吐量(并由此降低单位请求的成本)就变得更为重要了。

LLM 的核心是自回归 Transformer 模型。该模型可基于输入(prompt)和其之前输出的 token 序列生成词(token),一次生成一个。对于每次请求,这个成本高昂的过程都会重复,直到模型输出终止 token。这种按序列的生成过程会让工作负载受到内存限制,从而无法充分利用 GPU 的计算能力,并会限制服务的吞吐量。

通过批量方式同时处理多个请求可以提高吞吐量。但是,要在单一批次中处理许多请求,就需要高效地管理每个请求所占用的内存空间。

举个例子,图 1(左)展示了一个 130 亿参数的 LLM 在一台 40GB RAM 的英伟达 A100 GPU 上的内存分布。其 65% 的内存都分配给了模型权重,而模型权重在提供服务期间是不会变化的。

30% 的内存是用于存储请求的动态状态。对 Transformer 而言,这些状态由与注意力机制关联的键(key)和值(value)张量构成,通常被称为 KV 缓存,其表示用于生成序列中新输出 token 的之前 token 上下文。

其余占比很小的内存则是用于其它数据,包括激活 —— 评估 LLM 时创建的临时张量。

由于模型权重恒定不变,激活也只会占用少量 GPU 内存,因此对 KV 缓存的管理方式就成了决定最大批量大小的关键。如果管理方式很低效,KV 缓存内存就会极大限制批量大小,并由此限制 LLM 的吞吐量,如图 1(右)所示。

来自 UC 伯克利等机构的这个研究团队在论文中表示,他们观察到当前的 LLM 服务系统都没有高效地管理 KV 缓存内存。主要原因是它们会将请求的 KV 缓存保存在邻接的内存空间中,因为大多数深度学习框架都需要将张量存储在相邻连续的内存中。

但是,不同于传统深度学习工作负载中的张量,KV 缓存有其自己的独特性质:它会在模型生成新 token 的过程中随时间动态地增长和缩小,而且它的持续时间和长度是无法事先知晓的。这些特性使得现有系统的方法极其低效,这主要体现在两方面:

第一,现有系统存在内部和外部内存碎片的问题。

为了将请求的 KV 缓存存储在相邻连续的空间中,现有系统会预先分配一块限制了请求最大长度的相邻连续内存。这会导致严重的内部碎片化,因为请求的实际长度可能比其最大长度短很多。

此外,就算能事先知道实际长度,预先分配内存的方法依然很低效。因为那一整块内存在请求的生命周期中都被占用了,其它更短的请求无法使用这一块内存 —— 尽管可能其中很大一部分都未被使用。

此外,外部内存碎片可能也很显著,因为每个请求预先分配的内存大小可能都不同。

事实上,我们可以在图 2 的分析中看到,在现有系统中,仅有 20.4%-38.2% 的 KV 缓存内存会用于存储实际的 token 状态。第二,现有系统无法利用内存共享的机会。

LLM 服务通常会使用先进的解码算法,例如并行采样和波束搜索,这些方法可为每个请求生成多个输出。在这些场景中,由多个序列组成的请求可以部分共享它们的 KV 缓存。但是,现有系统不可能使用内存共享,因为不同序列的 KV 缓存存储在分开的相邻连续空间中。

为了解决上述限制,该团队提出了一种注意力算法 PagedAttention;该算法的灵感来自操作系统(OS)解决内存碎片化和内存共享的方案:使用分页机制的虚拟内存。

PagedAttention 会将请求的 KV 缓存分成一块块的,每一块(block)都包含一定数量 token 的注意力键和值。在 PagedAttention 中,KV 缓存的块不一定要存储在相邻连续空间中。

这样一来,就能以一种更为灵活的方式来管理 KV 缓存,就像是操作系统的虚拟内存:你可以将那些块看作是分页,将 token 看作是字节,将请求视为进程。通过使用相对较小的块并按需分配它们,这种设计可以减少内部碎片。

此外,它还能消除外部碎片,因为所有块的大小都相同。

最后,它还能实现以块为粒度的内存共享;这种内存共享支持与同一请求相关的不同序列,甚至也支持不同的请求。

立足于 PagedAttention,该团队构建了一个高吞吐量的分布式 LLM 服务引擎 vLLM,其几乎做到了 KV 缓存内存的零浪费。

vLLM 使用了块级的内存管理和抢占式的请求调度 —— 这些机制都是配合 PagedAttention 一起设计的。vLLM 支持 GPT、OPT 和 LLaMA 等各种大小的常用 LLM,包括那些超出单个 GPU 内存容量的 LLM。

研究者基于多种模型和工作负载进行了实验评估,结果表明:相比于当前最佳的系统,vLLM 能在完全不影响准确度的前提下将 LLM 服务吞吐量提升 2-4 倍。而且当序列更长、模型更大、解码算法更复杂时,vLLM 带来的提升还会更加显著。

总体而言,该研究的贡献如下:

  • 确认了提供 LLM 服务时的内存分配挑战并量化了它们对服务性能的影响。 

  • 提出了 PagedAttention,这是一种对存储在非相邻连续的分页内存中的 KV 缓存进行操作的注意力算法,其灵感来自操作系统中的虚拟内存和分页。 

  • 设计并实现了 vLLM,这是一个基于 PagedAttention 构建的分布式 LLM 服务引擎。 

  • 通过多种场景对 vLLM 进行了实验评估,结果表明其表现显著优于 FasterTransformer 和 Orca 等之前最佳方案。

方法概况

vLLM 的架构如图 4 所示。vLLM 采用一种集中式调度器(scheduler)来协调分布式 GPU 工作器(worker)的执行。KV 缓存管理器由 PagedAttention 驱动,能以分页方式有效管理 KV 缓存。具体来说,KV 缓存管理器通过集中式调度器发送的指令来管理 GPU 工作器上的物理 KV 缓存内存。

PagedAttention

不同于传统的注意力算法,PagedAttention 支持将连续的键和值存储在非相邻连续的内存空间中。

具体来说,PagedAttention 会将每个序列的 KV 缓存分成 KV 块。每一块都包含固定数量 token 的键和值的向量;这个固定数量记为 KV 块大小(B)。令第 j 个 KV 块的键块为 K_j,值块为 V_j。则注意力计算可以转换为以下形式的对块的计算:

其中 A_{i,j} 是在第 j 个 KV 块上的注意力分数的行向量。

在注意力计算期间,PagedAttention 核会分开识别并获取不同的 KV 块。图 5 给出了 PagedAttention 的一个示例:其键和值向量分布在三个块上,并且这三个块在物理内存上并不相邻连续。

每一次,这个 PagedAttention 核都会将查询 token(forth)的查询向量 q_i 与一个块(比如 0 块中的 Four score and seven 的键向量)中键向量 K_j 相乘,以计算注意力分数 A_{i,j};然后再将 A_{i,j} 与块中的值向量 V_j 相乘,得到最终的注意力输出 o_i。

综上所述,PagedAttention 算法能让 KV 块存储在非相邻连续的物理内存中,从而让 vLLM 实现更为灵活的分页内存管理。

KV 缓存管理器

使用 PagedAttention,该团队将 KV 缓存组织为固定大小的 KV 块,就像虚拟内存中的分页。

对 KV 缓存的请求会被表示成一系列逻辑 KV 块,在生成新 token 和它们的 KV 缓存时从左向右填充。最后一个 KV 块中未填充的位置留给未来填充。

使用 PagedAttention 和 vLLM 进行解码

图 6 通过一个示例展示了 vLLM 在对单个输入序列的解码过程中执行 PagedAttention 和管理内存的方式。从全局来看,在每次解码迭代中,vLLM 首先会选取一组候选序列来批处理,并为新请求的逻辑块分配物理块。

然后,vLLM 会将当前迭代的所有输入 token 连接起来,组成一个序列并将其输入到 LLM。在 LLM 的计算过程中,vLLM 使用 PagedAttention 核来访问以逻辑 KV 块形式存储的之前的 KV 缓存,然后将新生成的 KV 缓存保存到物理 KV 块中。

在一个 KV 块中存储多个 token(块大小 > 1)可让 PagedAttention 核并行处理多个位置的 KV 缓存,由此可以提升硬件使用率并降低延迟。

图 7 给出了 vLLM 管理两个序列的内存的示例。应用于其它解码场景

在许多成功的 LLM 应用中,LLM 服务必须要能提供更为复杂的解码场景 —— 有复杂的访问模式和更多的内存共享机会。研究者展示了 vLLM 的一般适用性。他们在论文中讨论过的场景包括并行采样、波束搜索、共享前缀、混合解码方法。

比如图 8 展示了一个带有两个输出的并行编码的例子。由于两个输出共享同一个 prompt,所以在 prompt 阶段只需为 prompt 的状态在内存空间中保留一个副本;这两个序列的 prompt 的逻辑块都会映射到同一个物理块。更多分析和示例请参阅原论文。

调度和抢占

LLM 面临着一个独特挑战:输入 LLM 的 prompt 的长度变化范围很大,并且输出结果的长度也无法事先知晓,而要依输入 prompt 和模型的情况而定。随着请求和相应输出数量的增长,vLLM 可能会为了存储新生成的 KV 缓存而耗尽 GPU 的物理块。

对于这种情况,vLLM 需要回答两个经典问题:(1) 应该淘汰(evict)哪些块?(2) 如果再次需要,如何恢复已淘汰的块?

通常来说,淘汰策略是使用启发式方法来预测将在最远的未来访问的块然后淘汰那个块。由于这里已知是一起访问一个序列的所有块,所以该团队实现了一种全清或不动的淘汰策略,即要么淘汰序列的所有块,要么就全不淘汰。此外,一个请求中的多个序列会被组成一个序列组来一起调度。一个序列组中的序列总是会被一起抢占或重新调度,因为这些序列之间存在潜在的内存共享。

为了解答第二个有关如何恢复已淘汰块的问题,研究者考虑了两种技术:

  • 交换。这是大多数虚拟内存实现使用的经典技术,即把已淘汰的分页复制到磁盘上的一个交换空间。在这里,研究者的做法是把已淘汰块复制到 CPU 内存。如图 4 所示,除了 GPU 块分配器之外,vLLM 还包括一个 CPU 块分配器,用以管理交换到 CPU RAM 的物理块。

  • 重新计算。这个做法很简单,就是当被抢占的序列被重新调度时,直接重新计算 KV 缓存。请注意,重新计算的延迟可能比原始延迟低得多。

交换和重新计算的性能取决于 CPU RAM 和 GPU 内存之间的带宽以及 GPU 的计算能力。

分布式执行

vLLM 能有效用于分布式的硬件设置,因为其支持 Transformers 上广泛使用的 Megatron-LM 式张量模型并行化策略。该策略遵循 SPMD(单程序多数据)执行调度方案,其中线性层会被分开以执行逐块的矩阵乘法,并且 GPU 会通过 allreduce 操作不断同步中间结果。

具体来说,注意力算子会被分散在注意力头维度上,每个 SPMD 过程负责多头注意力中一个注意力头子集。

实现

vLLM 是一个端到端服务提供系统,具有 FastAPI 前端和基于 GPU 的推理引擎。

该前端扩展了 OpenAI API 接口,允许用户为每个请求自定义采样参数,例如最大序列长度和波束宽度。

vLLM 引擎由 8500 行 Python 代码和 2000 行 C++/CUDA 代码写成。

该团队也用 Python 开发了一些与控制相关的组件,包括调度器和块管理器,还为 PagedAttention 等关键操作开发了定制版 CUDA 核。

至于模型执行器,他们使用 PyTorch 和 Transformer 实现了常用的 LLM,比如 GPT、OPT 和 LLaMA。

他们为分布式 GPU 工作器之间的张量通信使用了 NCCL。

评估

为了验证 vLLM 的效果,该团队进行了一系列实验评估。表 1 给出了模型大小和服务器配置情况。基础采样

在 ShareGPT 数据集上,vLLM 可以维持比 Orca (Oracle) 高 1.7-2.7 倍的请求率,比 Orca (Max) 则高 2.7-8 倍,同时还能维持相近的延迟,如图 12 上面一行和图 13a 所示。在 Alpaca 数据集上的结果也类似。

并行采样和波束搜索

如图 14 上面一行所示,如果要采样的序列数量很多,则 vLLM 能在 Orca 基准的基础上带来更大的提升。图中下面一行则展示了不同波束宽度的波束搜索结果。由于波束搜索支持更多共享,所以 vLLM 带来的性能优势还要更大。 whaosoft aiot http://143ai.com 

图 15 展示了内存节省量,计算方法是用因为共享而节省的块数除以不使用共享时的总块数。共享前缀

如图 16a 所示,当共享单样本前缀时,vLLM 的吞吐量比 Orca (Oracle) 高 1.67 倍。此外,当共享更多样本时(图 16b),vLLM 能实现比 Orca (Oracle) 高 3.58 倍的吞吐量。聊天机器人

从图 17 可以看出,相比于三个 Orca 基准模型,vLLM 可以维持高 2 倍的请求率。该团队也进行了消融实验,表明 PagedAttention 确实有助于 vLLM 提升效率。他们也研究了块大小与重新计算和交换技术的影响。详情参阅原论文。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/175563
推荐阅读
相关标签
  

闽ICP备14008679号