赞
踩
1 系统环境
硬件环境(Ascend/GPU/CPU): Ascend
MindSpore版本: 2.2.0
执行模式(PyNative/ Graph): 不限
2 报错信息
2.1 问题描述
MindSpore大模型并行需要在对应的yaml里面做哪些配置
3 解决方案
- #load_checkpoint: "/home/wizardcoder/1_wizardcoder-mindformers/outpu t/checkpoint/" # 权重需要放在这个文件的rank_0下面: :
-
- auto_trans_ckpt: True # If true, auto transform load_checkpoint to load in distributed model
-
- parallel_config:
- data_parallel: 1 # 4
- model_parallel: 1 # 8
- pipeline_stage: 8
- optimizer_shard: True
- micro_batch_num: 8
- vocab_emb_dp: True
- gradient_aggregation_group: 4
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。