赞
踩
前向传播是神经网络中信号从输入层通过隐藏层传递到输出层的过程。在数学上,一个神经网络层的输出可以通过以下公式计算:
[ \text{Output} = \text{Activation}(\text{Weights} \times \text{Input} + \text{Bias}) ]
其中,Activation是激活函数,Weights是权重矩阵,Input是输入数据,Bias是偏置项。
激活函数在神经网络中起到非线性变换的作用,常见的激活函数包括ReLU、Sigmoid和Tanh等。
损失函数用于评估神经网络的输出与真实值之间的差异,常见的损失函数包括均方误差(MSE)和交叉熵(Cross-Entropy)等。
在TensorFlow中,我们可以通过以下步骤构建一个简单的三层神经网络:
import tensorflow as tf
input_size = 784 # 输入特征长度
hidden_size_1 = 256 # 第一个隐藏层节点数
hidden_size_2 = 128 # 第二个隐藏层节点数
output_size = 10 # 输出层节点数(例如MNIST手写数字识别)
# 权重和偏置初始化为正态分布
weights_1 = tf.Variable(tf.random.normal([input_size, hidden_size_1]))
biases_1 = tf.Variable(tf.random.normal([hidden_size_1]))
weights_2 = tf.Variable(tf.random.normal([hidden_size_1, hidden_size_2]))
biases_2 = tf.Variable(tf.random.normal([hidden_size_2]))
weights_out = tf.Variable(tf.random.normal([hidden_size_2, output_size]))
biases_out = tf.Variable(tf.random.normal([output_size]))
def forward_propagation(inputs):
with tf.GradientTape() as tape:
# 第一个隐藏层的激活值
hidden_1 = tf.nn.relu(tf.matmul(inputs, weights_1) + biases_1)
# 第二个隐藏层的激活值
hidden_2 = tf.nn.relu(tf.matmul(hidden_1, weights_2) + biases_2)
# 输出层的原始分数(未应用激活函数)
outputs = tf.matmul(hidden_2, weights_out) + biases_out
return outputs
在前向传播的基础上,我们定义损失函数并计算梯度,以便进行参数更新。
def compute_loss(outputs, labels):
return tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=labels, logits=outputs))
with tf.GradientTape() as tape:
logits = forward_propagation(inputs)
loss = compute_loss(logits, labels)
grads = tape.gradient(loss, [weights_1, biases_1, weights_2, biases_2, weights_out, biases_out])
使用优化器根据计算出的梯度更新网络参数。
optimizer = tf.optimizers.Adam()
optimizer.apply_gradients(zip(grads, [weights_1, biases_1, weights_2, biases_2, weights_out, biases_out]))
for epoch in range(num_epochs):
for step, (x_batch, y_batch) in enumerate(train_dataset):
with tf.GradientTape() as tape:
logits = forward_propagation(x_batch)
loss = compute_loss(logits, y_batch)
grads = tape.gradient(loss, tf.trainable_variables())
optimizer.apply_gradients(zip(grads, tf.trainable_variables()))
if step % 100 == 0:
print(f"Epoch {epoch}, Step {step}, Loss: {loss.numpy()}")
在训练完成后,我们通常需要评估模型的性能。
predictions = forward_propagation(test_inputs)
accuracy = tf.reduce_mean(tf.cast(tf.equal(tf.argmax(predictions, 1), tf.argmax(test_labels, 1)), tf.float32))
print(f"Accuracy: {accuracy.numpy()}")
本文详细介绍了前向传播的理论基础和在TensorFlow中的实现方法。通过构建一个简单的神经网络模型,我们展示了从初始化参数到前向传播,再到损失计算和参数更新的完整流程。这为进一步探索深度学习模型提供了坚实的基础。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。