当前位置:   article > 正文

Transformers 4.37 中文文档(九)_huggenface trainer

huggenface trainer

原文:huggingface.co/docs/transformers

GPU 上的高效训练

原始文本:huggingface.co/docs/transformers/v4.37.2/en/perf_train_gpu_many

如果在单个 GPU 上训练模型太慢或者模型的权重无法适应单个 GPU 的内存,则过渡到多 GPU 设置可能是一个可行的选择。在进行此过渡之前,彻底探索在单个 GPU 上进行高效训练的方法和工具中涵盖的所有策略,因为它们普遍适用于任意数量的 GPU 上的模型训练。一旦您采用了这些策略并发现它们在单个 GPU 上不足以满足您的情况时,请考虑转移到多个 GPU。

从单个 GPU 过渡到多个 GPU 需要引入某种形式的并行性,因为工作负载必须分布在资源之间。可以采用多种技术来实现并行性,例如数据并行性,张量并行性和管道并行性。重要的是要注意,没有一种大小适合所有的解决方案,最佳设置取决于您正在使用的特定硬件配置。

本指南提供了对各种并行性类型的深入概述,以及有关如何组合的指导

技术和选择适当的方法。有关分布式训练的逐步教程,请参考

推荐阅读
相关标签