赞
踩
在 PyTorch 中,torch.nn.utils.clip_grad_norm
函数已被弃用,并推荐使用 torch.nn.utils.clip_grad_norm_
函数。这是因为 _
后缀版本的函数会直接修改张量的梯度值,而不会创建新的副本。
将:
torch.nn.utils.clip_grad_norm(model.parameters(), config['clip'])
替换为:
torch.nn.utils.clip_grad_norm_(model.parameters(), config['clip'])
这样做的目的是限制模型参数的梯度范数,以防止梯度过大导致训练不稳定等问题。通过使用 _
版本的函数,将在不增加额外内存开销的情况下完成梯度裁剪操作。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。