赞
踩
文字理解 参考
clone是对数据data的`深度拷贝`,但是梯度是共享的, 即x1的data和x2的data是不一样的,但是gradient是同一个,共享一个内存地址。
detach的机制正好与clone相反。x1的data和x2的data是同一个,但是gradient被截断了,是不通的,即x2的gradient回传不给x1