当前位置:   article > 正文

报错:ValueError: Error initializing torch.distributed using env:// rendezvous: environment variable MA_os.environ['master_addr'] = 'localhost' os.environ

os.environ['master_addr'] = 'localhost' os.environ['master_port'] = '5678

参考了这位大佬:链接

在训练LSKNet的时候出现报错:

看网上解答是需要在train.py文件中开头配置环境变量:

  1. import os
  2. os.environ['MASTER_ADDR'] = 'localhost'
  3. os.environ['MASTER_PORT'] = '5678'

设置了两个环境变量,MASTER_ADDRMASTER_PORT,它们用于配置分布式计算的主节点信息。

  1. MASTER_ADDR:这是指定主节点的地址的环境变量。在您的示例中,它被设置为 'localhost',这意味着主节点位于本地计算机上,即当前运行代码的计算机。通常,这个地址是主节点的 IP 地址或主机名。指定正确的主节点地址对于其他计算节点能够连接到主节点至关重要。

  2. MASTER_PORT:这是指定主节点的端口号的环境变量。在您的示例中,它被设置为 '5678',这是一个数字,用于表示主节点侦听传入连接的端口。每个节点都需要知道主节点在哪个端口上侦听连接,以便能够与主节点进行通信。5678 只是一个示例端口号,您可以根据需要设置其他端口号。

在分布式计算环境中,各个计算节点(包括主节点)通过这两个环境变量来协调通信,以便能够一起执行任务。

配置之后即可成功运行

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/394361?site
推荐阅读
相关标签
  

闽ICP备14008679号