赞
踩
出现错误如下(仅截图部分):
为什么出现此问题?
答:表明在使用多进程的情况下,存在尝试在当前进程还未完成引导阶段时启动新进程的问题。
这通常是由于在多进程环境中启动了新的进程。
解决办法:
1.将代码放入main()函数,同时添加下述代码。防止多进程的递归调用。这将确保只有在脚本作为主模块执行时,训练代码才会运行。(实测有用,程序正常运行)
- if __name__ == '__main__':
- main()
2. 修改调用torch.utils.data.DataLoader()函数时的 num_workers 参数。
train_data_loader = DataLoader(train_dataset, batch_size=hparams.syncnet_batch_size, shuffle=True, num_workers=0)
test_data_loader = DataLoader(test_dataset, batch_size=hparams.syncnet_batch_size, shuffle=False, num_workers=0)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。