赞
踩
t=torch.tensor(a)
a可以是列表,ndarray,tensor
对于ndarray和tensor来说,t是一个copy,对t的任何操作都不会影响原有数据。
和numpy中随机语法类似
rand:在(0,1)的均匀分布中sample
randn: 在N(0,1)的正态分布中sample
t将a中的数据读出,然后创建一个新的叶节点。
clone()是在原有的计算图中添加一个与a相同的节点,可以看到这个节点是有grad_fn的,也就是说他是由a通过clone函数生成的
这两者都是对a的引用,对t的修改会影响到a,但是.data存在梯度危险,所以在v0.4之后已经不再使用。
这两者不同于下面直接赋值的地方是,他们是从原计算图中剥离出来的,分配了新的内存地址,而不仅仅是一个别名。
python中赋值实际上是引用,可以看到t和a指向同一个内存地址。
这种方式和tensor(a)是等价的
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。