当前位置:   article > 正文

LLM-模型大小:GPU显卡内存大小、模型大小、精度、batch_size关系_llm大模型组batch

llm大模型组batch

 对于LLaMa-6b模型来说

1、训练时模型本身参数、梯度值、优化器参数值需要的内存大小为:

2、 每个样本需要的内存大小():

3、基于第1/2条,对于A100显卡(80GB RAM)来说,batch_size最大可以设置为50

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/594840
推荐阅读
相关标签
  

闽ICP备14008679号