赞
踩
pytorch实战1:手把手教你基于pytorch实现LeNet5_pytorch lenet5-CSDN博客
ReLu(修正线性单元(Rectified Linear Unit)激活函数)
nn.ReLU(),
它执行的运算是将输入中小于零的值变为零,保持大于等于零的值不变。
nn.Linear(in_features=400, out_features=120),
执行了一个操作:它创建了一个线性变换,其中输入特征的维度为400,输出特征的维度为120。它可以改变输出大小是因为它将输入的大小为400的特征向量映射到大小为120的输出向量。这个过程通过矩阵乘法和偏置加法来实现,其中权重矩阵的形状是(400, 120),而偏置的形状是(120,)。
是 PyTorch 中的一个函数调用,用于将输入张量 x 沿着指定维度(维度索引为 1)展平。这意味着函数会将输入张量 x 的指定维度(在这里是维度索引为 1 的维度,通常是列维度)的所有元素展开成一个一维张量。
定义神经网络的前向传播过程。
在深度学习中,通常没有直接看到调用forward
函数的原因是因为forward
函数通常在神经网络的定义中被隐式调用。在PyTorch或TensorFlow等深度学习框架中,我们定义了神经网络的结构和参数,并在数据传递过程中,框架会自动调用forward
函数来执行前向传播计算。这样的设计隐藏了底层的实现细节,使得用户可以专注于定义网络结构和训练模型,而不必手动调用forward
函数。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。