赞
踩
梯度(Gradient):
.backward()
方法时,PyTorch会自动计算相对于图中所有具有requires_grad=True
属性的张量的梯度,并将这些梯度存储在各自张量的.grad
属性中。优化器(Optimizer):
requires_grad=True
)。optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
。torch.optim.SGD
的情况下)和更新规则。optimizer.step()
时,优化器会根据存储的梯度来更新它所保存的参数。梯度存在于模型的参数(即张量)中,而优化器则以一个单独的实体存在,维护着参数的更新规则和状态。在每次训练迭代中,优化器都会使用参数的.grad
属性来更新其值。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。