当前位置:   article > 正文

Pytorch的官方教程学习——Gradients 的理解_torch.gradient

torch.gradient

最近在学习Pytorch的官方入门教程,本篇只写了关于Gradients这一小知识点的理解:

附:Pytorch的官方入门60min教程链接<https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html>,如下图所示,分为几个模块进行学习:

1.Gradients 是什么

Gradients 就是梯度,从方向导数理解一下什么是梯度。

  • 方向导数是各个方向上的导数
  • 偏导数连续才有梯度存在
  • 梯度的方向是方向导数中取到最大值的方向,梯度的值是方向导数的最大值

2.Gradients的例子

(也就是来自官方入门教程的例子)

<1>首先创建一个张量,设置 requires_grad=True 来跟踪与它相关的计算,即在计算中保留对应的梯度信息,代码如下:

  1. import torch
  2. x = torch.ones(
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/黑客灵魂/article/detail/838417
推荐阅读
相关标签
  

闽ICP备14008679号