赞
踩
2024 年 4 月 18 日,AI 社区对 Llama 3 70B 的发布表示欢迎,这是一款最先进的大型语言模型 (LLM)。该型号是 Llama 系列的下一代产品,支持广泛的用例。该模型 istelf 在广泛的行业平台上表现良好,并提供了新功能,包括改进的推理。
在之前的博客文章中,我们研究了使用推理引擎对 Llama 3 的量化和非量化版本执行推理的知名应用程序。我们在第 1 部分介绍了量化版本,在第 2 部分介绍了非量化版本。研究的重点是研究什么是最简单、性能最好的引擎,可以将 Llama 3 作为 API 端点。这篇文章着眼于此项目的下一次迭代,并着眼于不同 GPU 类型的性能。
在深入研究结果之前,让我们简要介绍一下我们测试过的 GPU:
我们可以使用许多不同的引擎和技术来判断各种 GPU 的性能。我们决定利用 Hugging Face Text Generation Inference (TGI) 引擎作为为 Llama 3 提供服务的主要方式。这样做有一个主要原因。它是我们见过的唯一一个提供基准测试机制的推理引擎。
TGI 提供的基准测试允许查看批量大小、预填充和解码步骤。这是查看每秒平均、最小和最大令牌以及 p50、p90 和 p99 结果的绝佳方式。如果您想了解更多关于如何通过 TGI 进行基准测试的信息,请联系我们,我们很乐意为您提供帮助。
RTX A6000
图:4xA6000 上的基准测试
L40型
Figure: Benchmark on 4xL40
A100 PCIe
Figure: Benchmark on 2xA100
A100 SXM4
Figure: Benchmark on 2xA100
H100 PCIe
图:2xH100 上的基准测试
长期以来,A100 都被认为是在大模型生产系统中的不二之选。
Hugging Face TGI 提供了一种一致的机制,可以在多种 GPU 类型上进行基准测试。根据这些结果的性能,我们还可以计算出最经济高效的 GPU 来运行 Llama 3 的推理端点。了解这些细微差别有助于在部署 Llama 3 70B 时做出明智的决策,确保您获得最佳性能和投资价值。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。