当前位置:   article > 正文

开源大模型训练及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略_大模型 6b 13b是指什么

大模型 6b 13b是指什么

随着各厂商相继发布大型模型,排行榜变化频繁,新旧交替,呈现出一片繁荣景象。有些技术爱好者也开始心痒难耐,萌生了构建一个庞大模型并进行训练的想法。每天都能看到各个厂家推出内测版本,这让人不禁思考:为何不在本地环境尝试一番呢?然而,当前手头仅有一块性能有限的老破小GPU显卡,这就引发了一个问题:如何在这样的条件下成功运行模型?本文将引领读者探索一个切实可行的解决方案,并提出一个关键问题:如何通过模型参数量粗略估算所拥有的GPU显存是否足够?

一、了解大模型参数

1.1 模型参数单位

“10b”、“13b”、"70b"等术语通常指的是大型神经网络模型的参数数量。其中的 “b” 代表 “billion”,也就是十亿。表示模型中的参数量,每个参数用来存储模型的权重和偏差等信息。
例如:

  • 10b” 意味着模型有大约 100 亿个参数。
  • “13b” 意味着模型有大约 130 亿个参数。
  • “70b” 意味着模型有大约 700 亿个参数。

例如:Meta 开发并公开发布的 Llama 2 系列大型语言模型 (LLM),这是一组经过预训练和微调的生成文本模型,参数规模从 70 亿(7b)700 亿(70b)不等。经过微调的LLMs(称为 Llama-2-Chat)针对对话场景进行了优化。

  • meta-llama/Llama-2-7b-hf
  • meta-llama/Llama-2-13b-hf
  • meta-llama/Llama-2-70b-hf

**输入:**仅输入文本
**输出:**仅生成文本
**模型架构:**Llama 2 是一种使用优化的 Transformer 架构的自回归语言模型。调整后的版本使用监督微调(SFT)和带有人类反馈的强化学习(RLHF)来适应人类对有用性和安全性的偏好。

1.2 模型参数精度

模型参数的精度通常指的是参数的数据类型,它决定了模型在内存中存储和计算参数时所使用的位数。以下是一些常见的模型参数精度及其含义,以及它们在内存中所占用的字节数:

  1. 单精度浮点数 (32位) - float32:

    • 含义:单精度浮点数用于表示实数,具有较高的精度,适用于大多数深度学习应用。
    • 字节数:4字节(32位)
  2. 半精度浮点数 (16位) - float16:

    • 含义:半精度浮点数用于表示实数,但相对于单精度浮点数,它的位数较少,因此精度稍低。然而,它可以在某些情况下显著减少内存占用并加速计算。
    • 字节数:2字节(16位)
  3. 双精度浮点数 (64位) - float64:

    • 含义:双精度浮点数提供更高的精度,适用于需要更高数值精度的应用,但会占用更多的内存。
    • 字节数:8字节(64位)
  4. 整数 (通常为32位或64位) - int32, int64:

    • 含义:整数用于表示离散的数值,可以是有符号或无符号的。在某些情况下,例如分类问题中的标签,可以使用整数数据类型来表示类别。
    • 字节数:通常为4字节(32位)或8字节(64位)

注意: 模型参数精度的选择往往是一种权衡。使用更高精度的数据类型可以提供更高的数值精度,但会占用更多的内存并可能导致计算速度变慢。相反,使用较低精度的数据类型可以节省内存加速计算,但可能会导致数值精度损失
在实际应用中,选择模型参数的精度需要根据具体任务、硬件设备和性能要求进行权衡考虑。

实际上,通常情况下并没有标准的整数数据类型为int4或int8,因为这些整数数据类型不太常见,且在大多数计算机体系结构中没有直接支持。在计算机中,整数通常以字节为单位进行存储,所以int4表示一个4位的整数,int8表示一个8位的整数。

然而,近年来在深度学习领域中,出于模型压缩和加速的考虑,研究人员开始尝试使用较低位数的整数来表示模型参数。例如,一些研究工作中使用的int4int8等整数表示法是通过量化(quantization)技术来实现的。

在量化技术中,int4和int8分别表示4位和8位整数。这些整数用于表示模型参数,从而减少模型在存储和计算时所需的内存和计算资源。量化是一种模型压缩技术,通过将浮点数参数映射到较低位数的整数,从而在一定程度上降低了模型的计算和存储成本。以下是对这两种精度的解释以及它们在内存中占用的字节数:

  1. int4 (4位整数):

    • 含义:int4使用4位二进制来表示整数。在量化过程中,浮点数参数将被映射到一个有限的范围内的整数,然后使用4位来存储这些整数。
    • 字节数:由于一个字节是8位,具体占用位数而非字节数,通常使用位操作存储。
  2. int8 (8位整数):

    • 含义:int8使用8位二进制来表示整数。在量化过程中,浮点数参数将被映射到一个有限的范围内的整数,然后使用8位来存储这些整数。
    • 字节数:1字节(8位)

注意: 在量化过程中,模型参数的值被量化为最接近的可表示整数,这可能会导致一些信息损失。因此,在使用量化技术时,需要平衡压缩效果和模型性能之间的权衡,并根据具体任务的需求来选择合适的量化精度。

二、推理显存计算

模型推理(inference)是指在已经训练好的模型上对新的数据进行预测或分类。推理阶段通常比训练阶段要求更低的显存,因为不涉及梯度计算和参数更新等大量计算。以下是计算模型推理时所需显存的一些关键因素:

  1. 模型结构: 模型的结构包括层数、每层的神经元数量、卷积核大小等。较深的模型通常需要更多的显存,因为每一层都会产生中间计算结果。

  2. 输入数据: 推理时所需的显存与输入数据的尺寸有关。更大尺寸的输入数据会占用更多的显存。

  3. 批处理大小BatchSize: 批处理大小是指一次推理中处理的样本数量。较大的批处理大小可能会增加显存使用,因为需要同时存储多个样本的计算结果。

  4. 数据类型DType: 使用的数据类型(如单精度浮点数、半精度浮点数)也会影响显存需求。较低精度的数据类型通常会减少显存需求。

  5. 中间计算: 在模型的推理过程中,可能会产生一些中间计算结果,这些中间结果也会占用一定的显存。

要估算模型推理时所需的显存,可以按照以下步骤:

  1. 模型加载: 计算模型中所有参数的大小,包括权重和偏差。
  2. 确定输入数据尺寸: 根据模型结构和输入数据大小,计算推理过程中每个中间计算结果的大小。
  3. 选择批次大小: 考虑批处理大小和数据类型对显存的影响。
  4. 计算显存大小: 将模型参数大小、中间计算结果大小和额外内存需求相加,以得出总显存需求或者使用合适的库或工具计算出推理过程中所需的显存。

通常情况下,现代深度学习框架(如TensorFlow、PyTorch等)提供了用于推理的工具和函数,可以帮助您估算和管理模型推理时的显存需求。

以 Llama-2-7b-hf 为例
  • 因为全精度模型参数是float32类型, 占用4个字节,粗略计算:1b(10亿)个模型参数,约占用4G显存(实际大小:10^9 * 4 / 1024^3 ~= 3.725 GB),那么LLaMA的参数量为7b,那么加载模型参数需要的显存为:3.725 * 7 ~= 26.075 GB

  • 如果您的显存不足32GB,那么可以设置半精度的FP16/BF16来加载,每个参数只占2个字节,所需显存就直接减半,只需要约13GB。虽然模型效果会因精度损失而略微降低,但一般在可接受范围。

  • 如果您的显存不足16GB,那么可以采用int8量化后,显存再减半,只需要约6.5GB,但是模型效果会更差一些。

  • 如果您的显存不足8GB,那么只能采用int4量化,显存再减半,只需要约3.26GB。
    完美运行、成功上车

注意: 上述是加载模型到显存所需大小,在模型的推理过程中,可能会产生一些中间计算结果,这些中间结果也会占用一定的显存,所以显存大小不能刚好是参数量的大小,不然就会OOM。

**自我实践1:**使用 RTX A6000 显卡(50GB显存)进行 70B 的 int4 量化模型部署,可正常运行。

三、训练显存计算

模型训练(train)是指在给定训练数据集的基础上,通过优化算法调整模型的参数,使其能够更好地适应训练数据,并在未见过的数据上表现出良好的泛化能力。训练阶段通常比推理阶段要求更多的显存,因为涉及梯度计算和参数更新等大量计算。以下是计算模型推理时所需显存的一些关键因素:

1.模型权重
模型权重是模型参数中的一部分,通常是指神经网络中连接权重(weights)。这些权重决定了输入特征与网络层之间的连接强度,以及在前向传播过程中特征的传递方式。所以模型

2.梯度

在训练过程中,计算梯度用于更新模型参数。梯度与模型参数的维度相同。

3.优化器参数
一些优化算法(如带有动量的优化器)需要保存一些状态信息,以便在每次更新时进行调整。这些状态信息也会占用一定的显存。
比如:

  • 采用 AdamW 优化器:每个参数占用8个字节,需要维护两个状态。意味着优化器所使用的显存量是模型权重的 2 倍;
  • 采用 经过 bitsandbytes 优化的 AdamW 优化器:每个参数占用2个字节,相当于权重的一半;
  • 采用 SGD 优化器:占用显存和模型权重一样。

优化器知识拓展

Adam、AdamW 和 SGD 是深度学习中常用的优化算法,用于更新模型参数以最小化损失函数。它们在更新策略和性能方面存在一些异同:

1. **Adam 优化器**:
   - **优点**:Adam(Adaptive Moment Estimation)结合了动量法和自适应学习率的思想,具有自适应性,能够根据参数的历史梯度信息调整学习率。这使得 Adam 通常能够更快地收敛,尤其适用于大规模数据和复杂模型。
   - **更新策略**:Adam 根据梯度的一阶矩估计(均值)和二阶矩估计(未中心化的方差)来更新参数。它还使用偏差校正来抵消初始阶段的估计不准确问题。
   - **超参数**:Adam 有学习率(learning rate)以及两个衰减率(用于计算一阶矩和二阶矩的衰减因子)。

2. **AdamW 优化器**:
   - **优点**:AdamW 是对 Adam 优化器的一种变种,引入了权重衰减(Weight Decay)来处理模型的权重更新,以减少过拟合风险。
   - **更新策略**:AdamW 与 Adam 相似,但在计算权重的梯度时直接加入权重衰减项,从而避免了将权重衰减添加到损失函数中的需要。
   - **超参数**:与 Adam 类似,AdamW 也有学习率和衰减率等超参数。

3. **SGD 优化器**:
   - **优点**:随机梯度下降(Stochastic Gradient Descent)是最简单的优化器之一。它使用每个小批次的随机梯度来更新参数,适用于各种模型和数据集规模,尤其在噪声较小的情况下。
   - **更新策略**:SGD 使用每个小批次的梯度来更新参数,通常带有一个动量项,以平滑更新过程并加速收敛。
   - **超参数**:SGD 的超参数包括学习率和动量等。

总之,Adam 和 AdamW 优化器具有自适应学习率和动量等特点,适用于大多数情况下,但在一些情况下可能会导致过拟合。SGD 优化器相对简单,需要仔细调整学习率和动量参数,但在一些情况下可能会更稳定。选择优化器通常取决于问题的性质和实际效果。

Adam 优化器的参数占用显存空间的计算方法与之前提到的方法类似。以下是一个基本的计算步骤:

1. **模型参数的大小**:首先,您需要计算模型中所有参数所占的内存空间。这取决于参数的数量和数据类型。每个参数的数据类型通常是 32 位浮点数(4 字节)或 16 位浮点数(2 字节)。

2. **梯度缓存**:Adam 优化器会维护梯度的缓存,用于更新模型参数。这些梯度缓存的大小与模型参数的大小相同,并且每个缓存的数据类型通常也是浮点数。

3. **动量和平方梯度变量**:Adam 优化器还会维护动量和平方梯度的移动平均值。这些变量的大小与模型的参数数量相同,并且每个变量的数据类型通常也是浮点数。

4. **学习率和其他超参数**:学习率等超参数通常是标量,它们的大小在内存中占用的空间非常小,可以忽略不计。

综合上述因素,您可以按照以下步骤来估算Adam优化器参数占用的显存空间:

1. 计算模型参数的大小:将模型中所有参数的数量乘以相应的数据类型所占的字节数。

2. 计算梯度缓存的大小:将模型参数的数量乘以相应的数据类型所占的字节数。

3. 计算动量和平方梯度变量的大小:将模型参数的数量乘以相应的数据类型所占的字节数。

4. 将这些大小相加,即可得到Adam优化器参数总共占用的显存空间。

请注意,不同的深度学习框架可能会在内部实现上有所不同,可能还包括一些额外的缓存和状态,因此实际的显存使用量可能会比上述估算稍微高一些。

对于实际情况,您可以使用深度学习框架提供的工具来监测模型的显存占用,例如NVIDIA的`nvidia-smi`命令行工具(适用于NVIDIA GPU)。这些工具可以提供准确的显存使用信息。


AdamW 优化器的参数占用显存空间的计算方式取决于多个因素,包括模型的参数数量、参数的数据类型(如 32 位浮点数或 16 位浮点数)、批次大小以及所使用的硬件和深度学习框架。下面是一个大致的计算方法:

1. **模型参数的大小**:首先,您需要计算模型中所有参数所占的内存空间。这取决于参数的数量和数据类型。每个参数的数据类型通常是 32 位浮点数(4 字节)或 16 位浮点数(2 字节)。

2. **动量和平方梯度变量**:AdamW 优化器会维护动量和平方梯度的移动平均值。这些变量的大小与模型的参数数量相同,并且每个变量的数据类型通常也是浮点数。因此,动量和平方梯度变量的大小与模型参数的大小相同。

3. **学习率和其他超参数**:学习率等超参数通常是标量,它们的大小在内存中占用的空间非常小,可以忽略不计。

综合上述因素,您可以按照以下步骤来估算AdamW优化器参数占用的显存空间:

1. 计算模型参数的大小:将模型中所有参数的数量乘以相应的数据类型所占的字节数。

2. 计算动量和平方梯度变量的大小:将模型参数的数量乘以相应的数据类型所占的字节数。

3. 将这些大小相加,即可得到AdamW优化器参数总共占用的显存空间。

请注意,不同的深度学习框架可能会在内部实现上有所不同,可能还包括一些额外的缓存和状态,因此实际的显存使用量可能会比上述估算稍微高一些。

对于实际情况,您可以使用深度学习框架提供的工具来监测模型的显存占用,例如NVIDIA的`nvidia-smi`命令行工具(适用于NVIDIA GPU)。这些工具可以提供准确的显存使用信息。


SGD(Stochastic Gradient Descent)优化器的参数占用显存空间的计算方式类似于之前提到的方法。以下是一个大致的计算方法:

1. **模型参数的大小**:首先,您需要计算模型中所有参数所占的内存空间。这取决于参数的数量和数据类型。每个参数的数据类型通常是 32 位浮点数(4 字节)或 16 位浮点数(2 字节)。

2. **梯度缓存**:SGD 优化器会维护梯度的缓存,用于更新模型参数。这些梯度缓存的大小与模型参数的大小相同,并且每个缓存的数据类型通常也是浮点数。

3. **学习率和其他超参数**:学习率等超参数通常是标量,它们的大小在内存中占用的空间非常小,可以忽略不计。

综合上述因素,您可以按照以下步骤来估算SGD优化器参数占用的显存空间:

1. 计算模型参数的大小:将模型中所有参数的数量乘以相应的数据类型所占的字节数。

2. 计算梯度缓存的大小:将模型参数的数量乘以相应的数据类型所占的字节数。

3. 将这些大小相加,即可得到SGD优化器参数总共占用的显存空间。

请注意,不同的深度学习框架可能会在内部实现上有所不同,可能还包括一些额外的缓存和状态,因此实际的显存使用量可能会比上述估算稍微高一些。

对于实际情况,您可以使用深度学习框架提供的工具来监测模型的显存占用,例如NVIDIA的`nvidia-smi`命令行工具(适用于NVIDIA GPU)。这些工具可以提供准确的显存使用信息。

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85

4.输入数据和标签
训练模型需要将输入数据和相应的标签加载到显存中。这些数据的大小取决于每个批次的样本数量以及每个样本的维度。

5.中间计算
在前向传播和反向传播过程中,可能需要存储一些中间计算结果,例如激活函数的输出、损失值等。

6.临时缓冲区
在计算过程中,可能需要一些临时缓冲区来存储临时数据,例如中间梯度计算结果等。减少中间变量也可以节省显存,这就体现出函数式编程语言的优势了。

7.硬件和依赖库的开销
显卡或其他硬件设备以及使用的深度学习框架在进行计算时也会占用一些显存。

以 Llama-2-7b-hf 为例
  • 数据类型:Int8
  • 模型参数: 7B * 1 bytes = 7GB
  • 梯度:同上7GB
  • 优化器参数: AdamW 2倍模型参数 7GB * 2 = 14GB
  • LLaMA的架构(hidden_size= 4096, intermediate_size=11008, num_hidden_lavers= 32, context.length = 2048),所以每个样本大小:(4096 + 11008) * 2048 * 32 * 1byte = 990MB
  • A100 (80GB RAM)大概可以在int8精度下BatchSize设置为50
  • 综上总现存大小:7GB + 7GB + 14GB + 990M * 50 ~= 77GB

Llama-2-7b-hf模型Int8推理由上个章节可得出现存大小6.5GB
由此可见,模型训练需要的显存是至少推理的十倍多

备注:模型训练所需GPU显存是本地笔记本所不能完成的,但是我们一般正常使用模型的预测推理服务还是没多大问题的

显存的总占用可以通过将上述各部分的大小相加来计算。在实际应用中,需要根据模型结构、数据批次大小、优化算法等因素来估计和管理显存的使用,以防止内存不足导致训练过程中断。使用一些工具和库(如TensorFlow、PyTorch等)可以帮助您监控和管理显存的使用情况。实际影响显存占用的因素还有很多,所以只能粗略估计个数量级。

监听显卡,每 1 秒刷新一次:watch -n -1 -d nvidia-smi
  • 1

四、结论

模型推理服务部署GPU配置推荐如下:

模型精度模型规模推理/训练最低显存
FP32全精度llama2 7B推理28GB
FP32全精度llama2 13B推理52GB
FP32全精度llama2 70B推理280GB
FP16半精度llama2 7B推理14GB
FP16半精度llama2 13B推理26GB
FP16半精度llama2 70B推理140GB
Int8精度llama2 7B推理7GB
Int8精度llama2 13B推理13GB
Int8精度llama2 70B推理70GB
Int4精度llama2 7B推理3.5GB
Int4精度llama2 13B推理6.5GB
Int4精度llama2 70B推理35GB

显存计算推荐:https://huggingface.co/spaces/hf-accelerate/model-memory-usage

了解了模型训练、模型推理时显存计算情况后,优化的思路方向也就有了,比如:使用当前比较主流的一些分布式计算框架 DeepSpeed、Megatron 等,都在降低显存方面做了很多优化工作,比如:量化、模型切分、混合精度计算、Memory Offload 等,后续再给大家分享,敬请期待~

引用

https://discuss.huggingface.co/t/llama-7b-gpu-memory-requirement/34323/6

关于我们

【点击➕关注】:小贾探AI
本人投身于互联网软件行业近十载,专注于WEB工程落地、大数据领域、图谱领域以及AI领域(大模型-GPT-应用落地),平时会在公众号不定期发布一些技术类和实践类的文章,欢
迎关注,一起进步一起成长~


声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/72107
推荐阅读
相关标签
  

闽ICP备14008679号