当前位置:   article > 正文

torch分布式训练报错_valueerror: error initializing torch.distributed u

valueerror: error initializing torch.distributed using env:// rendezvous: en

报错:
ValueError: Error initializing torch.distributed using env:// rendezvous: environment variable RANK expected, but not set
解决方法: python -m torch.distributed.launch --nproc_per_node=gpu个数 tools/train.py -f configs/damoyolo_tinynasL25_S.py

如果想用vscode或者用pycharm调试这个代码,需要这么设置即可:

import os
import torch
os.environ['MASTER_ADDR'] = 'localhost'
os.environ['MASTER_PORT'] = '12355'
os.environ['RANK'] = '0'
os.environ["CUDA_VISIBLE_DEVICES"] = "7"
os.environ['WORLD_SIZE'] = '1'
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

CUDA_VISIBLE_DEVICES这个变量设置成自己想用的gpu序号即可。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/394350
推荐阅读
相关标签
  

闽ICP备14008679号