当前位置:   article > 正文

DeepSpeed与Megatron的区别和联系_deepspeed和megatron的区别

deepspeed和megatron的区别
DeepSeedDeepSeed代表性功能MegatronMegatron代表性功能备注

GPU底层优化

开创性的全栈 GPU 内核设计FP6 量化更牛逼Fused CUDA Kernels

毕竟Megatron是Nvidia亲儿子,底层优化信手拈来。

数据并行更牛逼Zero系列的分布式数据并行方案优化器分片Megatron也做了类似Zero1的优化器分片,但数据并行没有deepspeed强
模型并行更牛逼Megatron的张量并行很牛

1、GPU底层优化

Megatron是Nvidia搞的,那必然对Nvidia GPU有着特定的优化。Megatron-Core 提供核心构建模块,例如注意力机制、转换器模块和层、归一化层和嵌入技术等,这些模块必然做了特定优化。

DeepSpeed也做了GPU底层优化,例如:DeepSpeed开创性的全栈 GPU 内核设计FP6 量化。

DeepSpeed/blogs/deepspeed-fp6/03-05-2024/README.md at master · microsoft/DeepSpeed · GitHub

2、数据并行

DeepSpeed的数据并行相比于Megatron做的更牛逼。

DeepSpeed数据并行有很多种策略,例如:Zero1、Zero2、Zero3、Zero++等,这些分布式策略可参考教程:

ZeRO++ 分布式数据并行 视频教程 《ZeRO++: Extremely Efficient Collective Communication for Large Model Training》-CSDN博客

Megatron做了分布式优化器(优化器分片类似于Zero1)。

DeepSpeed官方也用图示说明了,DeepSpeed的数据并行做的更牛逼。

该图描述了与单独使用 Megatron-LM 相比,DeepSpeed(将 ZeRO 驱动的数据并行性与 NVIDIA Megatron-LM 的模型并行性相结合)的系统吞吐量改进。

哈哈哈,DeepSpeed的数据并行于Megatron的模型并行结合,这是不是也说明了,Megatron的模型并行做的更好。

3、模型并行

哈哈哈,如上图所示,DeepSpeed的数据并行于Megatron的模型并行结合,这是不是也说明了,Megatron的模型并行做的更好。

DeepSeed官方教程里面,模型并行一节专门讲了将DeepSeed的数据并行与Megatron的模型并行集成。链接:Megatron-LM GPT2 - DeepSpeed

Megatron官方教程里面,也提到利用DeepSpeed和Megatron共同训练模型。[2201.11990] Using DeepSpeed and Megatron to Train Megatron-Turing NLG 530B, A Large-Scale Generative Language Model (arxiv.org)

哈哈哈,现在DeepSpeed与Megatron明显的合作共赢啊!

视频教程

该文档还在持续更新中,后续有必要视频教程的话,视频教程会放在这,欢迎关注。

串门的小马驹的个人空间-串门的小马驹个人主页-哔哩哔哩视频

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/723023
推荐阅读
相关标签
  

闽ICP备14008679号