赞
踩
LMDeploy 由 MMDeploy 和 MMRazor 团队联合开发,是涵盖了 LLM 任务的全套轻量化、部署和服务解决方案。 这个强大的工具箱提供以下核心功能1 :
官方发布了非常详细的教程,链接如下。
Tutorial/lmdeploy/README.md at camp2 · InternLM/Tutorial · GitHub
主要包含两个步骤(详细操作可见教程)
可以感受到其推理速度较慢。
相较于原生Transformer,LMDeploy的推理速度明显加快了。
可以通过编写速度测试脚本来定量比较Transformer库推理Internlm2-chat-1.8b的速度,该部分在教程中有详细介绍。
结果大致如图:
总的来说,量化是一种以参数或计算中间结果精度下降换空间节省(以及同时带来的性能提升)的策略。
KV Cache是一种缓存技术,通过存储键值对的形式来复用计算结果,以达到提高性能和降低内存消耗的目的。在大规模训练和推理中,KV Cache可以显著减少重复计算量,从而提升模型的推理速度。理想情况下,KV Cache全部存储于显存,以加快访存速度。当显存空间不足时,也可以将KV Cache放在内存,通过缓存管理器控制将当前需要使用的数据放入显存。
模型在运行时,占用的显存可大致分为三部分:模型参数本身占用的显存、KV Cache占用的显存,以及中间运算结果占用的显存。LMDeploy的KV Cache管理器可以通过设置--cache-max-entry-count
参数,控制KV缓存占用剩余显存的最大比例。默认的比例为0.8。
按照教程进行相应的设置,可以看到显存占用明显降低。
LMDeploy使用AWQ算法,实现模型4bit权重量化。推理引擎TurboMind提供了非常高效的4bit推理cuda kernel,性能是FP16的2.4倍以上。它支持以下NVIDIA显卡:
相应操作后,可以看到,显存占用变为2472MB,明显降低。
首先按照教程启动API服务器。
当前的架构如下:
当前的架构如下图所示:
上述操作是在命令行中进行的,在开发项目时,有时我们需要将大模型推理集成到Python代码里面。
在第3章,我们通过向lmdeploy传递附加参数,实现模型的量化推理,及设置KV Cache最大占用比例。在Python代码中,可以通过创建TurbomindEngineConfig,向lmdeploy传递参数。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。