当前位置:   article > 正文

神经网络入门之隐藏层设计_隐藏层的设计

隐藏层的设计

隐藏层


这部分教程将介绍三部分:

  • 隐藏层设计
  • 非线性激活函数
  • BP算法

在前面几个教程中,我们已经介绍了一些很简单的教程,就是单一的回归模型或者分类模型。在这个教程中,我们也将设计一个二分类神经网络模型,其中输入数据是一个维度,隐藏层只有一个神经元,并且使用非线性函数作为激活函数,模型结构能用图表示为:


我们先导入教程需要使用的软件包。

  1. import numpy as np
  2. import matplotlib.pyplot as plt
  3. from matplotlib.colors import colorConverter, ListedColormap
  4. from mpl_toolkits.mplot3d import Axes3D
  5. from matplotlib import cm
定义数据集

在这篇教程中,我们将输入数据x分类成两个类别,用蓝色表示t = 1,用红色表示t = 0。其中,红色分类样本是一个多峰分布,被蓝色分类样本包围。这些数据都是一维的,但是数据之间的间隔并不是线性的分割。这些数据特性将在下图中表示出来。

这个二分类模型不会完全准确的分类处理啊,因为我们在其中加入了一个神经元,并且采用的是非线性函数。

  1. # Define and generate the samples
  2. nb_of_samples_per_class = 20 # The number of sample in each class
  3. blue_mean = [0] # The mean of the blue class
  4. red_left_mean = [-2] # The mean of the red class
  5. red_right_mean = [2] # The mean of the red class
  6. std_dev = 0.5 # standard deviation of both classes
  7. # Generate samples from both classes
  8. x_blue = np.random.randn(nb_of_samples_per_class, 1) * std_dev + blue_mean
  9. x_red_left = np.random.randn(nb_of_samples_per_class/2, 1) * std_dev + red_left_mean
  10. x_red_right = np.random.randn(nb_of_samples_per_class/2, 1) * std_dev + red_right_mean
  11. # Merge samples in set of input variables x, and corresponding set of
  12. # output variables t
  13. x = np.vstack((x_blue, x_red_left, x_red_right))
  14. t = np.vstack((np.ones((x_blue.shape[0],1)),
  15. np.zeros((x_red_left.shape[0],1)),
  16. np.zeros((x_red_right.shape[0], 1))))
  1. # Plot samples from both classes as lines on a 1D space
  2. plt.figure(figsize=(8,0.5))
  3. plt.xlim(-3,3)
  4. plt.ylim(-1,1)
  5. # Plot samples
  6. plt.plot(x_blue, np.zeros_like(x_blue), 'b|', ms = 30)
  7. plt.plot(x_red_left, np.zeros_like(x_red_left), 'r|', ms = 30)
  8. plt.plot(x_red_right, np.zeros_like(x_red_right), 'r|', ms = 30)
  9. plt.gca().axes.get_yaxis().set_visible(False)
  10. plt.title('Input samples from the blue and red class')
  11. plt.xlabel('$x$', fontsize=15)
  12. plt.show()

输入样本

非线性激活函数

在这里,我们使用的非线性转换函数是Gaussian radial basis function (RBF)。除了径向基函数网络,RBF函数在神经网络中不经常被作为激活函数。比较常见的激活函数是sigmoid函数。但我们根据设计的输入数据x,在这里RBF函数能很好地将蓝色样本数据从红色样本数据中分类出来,下图画出了RBF函数的图像。RBF函数给定义为:


RBF函数

RBF函数的导数为定义为:


RBF函数的导数
  1. # Define the rbf function
  2. def rbf(z):
  3. return np.exp(-z**2)
  1. # Plot the rbf function
  2. z = np.linspace(-6,6,100)
  3. plt.plot(z, rbf(z), 'b-')
  4. plt.xlabel('$z$', fontsize=15)
  5. plt.ylabel('$e^{-z^2}$', fontsize=15)
  6. plt.title('RBF function')
  7. plt.grid()
  8. plt.show()

RBF函数可视化

BP算法

在训练模型的时候,我们使用BP算法来进行模型优化,这是一种很典型的优化算法。BP算法的每次迭代分为两步:

  1. 正向传播去计算神经网络的输出。
  2. 利用神经网络得出的结果和真实结果之间的误差进行反向传播来更新神经网络的参数。

1. 正向传播

在计算正向传播中,输入数据被一层一层的计算,最后从模型中得出输出结果。

计算隐藏层的激活函数

隐藏层h经激活函数之后,输出结果为:


激活函数

其中,wh是权重参数。hidden_activations(x, wh)函数实现了该功能。

计算输出结果的激活函数

神经网络的最后一层的输出,是将隐藏层的输出h作为数据参数,并且利用Logistic函数来作为激活函数。


输出结果的激活函数

其中,w0是输出层的权重,output_activations(h, w0)函数实现了该功能。我们在公式中添加了一个偏差项-1,因为如果不添加偏差项,那么Logistic函数只能学到一个经过原点的分类面。因为,隐藏层中的RBF函数的输入值得范围是从零到正无穷,那么如果我们不在输出层加上偏差项的话,模型不可能学出有用的分类结果,因为没有样本的值将小于0,从而归为决策树的左边。因此,我们增加了一个截距,即偏差项。正常情况下,偏差项也和权重参数一样,需要被训练,但是由于这个例子中的模型非常简单,所以我们就用一个常数来作为偏差项。

  1. # Define the logistic function
  2. def logistic(z):
  3. return 1 / (1 + np.exp(-z))
  4. # Function to compute the hidden activations
  5. def hidden_activations(x, wh):
  6. return rbf(x * wh)
  7. # Define output layer feedforward
  8. def output_activations(h , wo):
  9. return logistic(h * wo - 1)
  10. # Define the neural network function
  11. def nn(x, wh, wo):
  12. return output_activations(hidden_activations(x, wh), wo)
  13. # Define the neural network prediction function that only returns
  14. # 1 or 0 depending on the predicted class
  15. def nn_predict(x, wh, wo):
  16. return np.around(nn(x, wh, wo))

2. 反向传播

在反向传播过程中,我们需要先计算出神经网络的输出与真实值之间的误差。这个误差会一层一层的反向传播去更新神经网络中的各个权重。

在每一层中,使用梯度下降算法按照负梯度方向对每个参数进行更新。

参数whwo利用w(k+1)=w(k)−Δw(k+1)更新,其中Δw=μ∗∂ξ/∂wμ是学习率,∂ξ/∂w是损失函数ξ对参数w的梯度。

计算损失函数

在这个模型中,损失函数ξ与交叉熵损失函数一样,具体解释在这里


损失函数

损失函数对于参数whwo的表示如下图所示。从图中,我们发现误差面不是一个凸函数,而且沿着wh = 0这一轴,参数wh将是损失函数的一个映射。

从图中发现,沿着wh = 0,从wo > 0开始,损失函数有一个非常陡峭的梯度,并且我们要按照图形的下边缘进行梯度下降。如果学习率取得过大,那么在梯度更新的时候,可能跳过最小值,从一边的梯度方向跳到另一边的梯度方向。因为梯度的方向太陡峭了,每次对参数的更新跨度将会非常大。因此,在开始的时候我们需要将学习率取一个比较小的值。

  1. # Define the cost function
  2. def cost(y, t):
  3. return - np.sum(np.multiply(t, np.log(y)) + np.multiply((1-t), np.log(1-y)))
  4. # Define a function to calculate the cost for a given set of parameters
  5. def cost_for_param(x, wh, wo, t):
  6. return cost(nn(x, wh, wo) , t)
  1. # Plot the cost in function of the weights
  2. # Define a vector of weights for which we want to plot the cost
  3. nb_of_ws = 200 # compute the cost nb_of_ws times in each dimension
  4. wsh = np.linspace(-10, 10, num=nb_of_ws) # hidden weights
  5. wso = np.linspace(-10, 10, num=nb_of_ws) # output weights
  6. ws_x, ws_y = np.meshgrid(wsh, wso) # generate grid
  7. cost_ws = np.zeros((nb_of_ws, nb_of_ws)) # initialize cost matrix
  8. # Fill the cost matrix for each combination of weights
  9. for i in range(nb_of_ws):
  10. for j in range(nb_of_ws):
  11. cost_ws[i,j] = cost(nn(x, ws_x[i,j], ws_y[i,j]) , t)
  12. # Plot the cost function surface
  13. fig = plt.figure()
  14. ax = Axes3D(fig)
  15. # plot the surface
  16. surf = ax.plot_surface(ws_x, ws_y, cost_ws, linewidth=0, cmap=cm.pink)
  17. ax.view_init(elev=60, azim=-30)
  18. cbar = fig.colorbar(surf)
  19. ax.set_xlabel('$w_h$', fontsize=15)
  20. ax.set_ylabel('$w_o$', fontsize=15)
  21. ax.set_zlabel('$\\xi$', fontsize=15)
  22. cbar.ax.set_ylabel('$\\xi$', fontsize=15)
  23. plt.title('Cost function surface')
  24. plt.grid()
  25. plt.show()

损失函数误差表面
输出层更新

∂ξi/∂wo是每个样本i的输出梯度,参照第二部分教程的方法,我们可以得出相应的推导公式:


梯度推导

其中,zoi=hi∗wohi是样本i经过激活函数之后输出的值,∂ξi/∂zoi=δoi是输出层误差的求导。

gradient_output(y, t)函数实现了δogradient_weight_out(h, grad_output)函数实现了∂ξ/∂wo

隐藏层更新

∂ξi/∂wh是每个样本i在影藏层的梯度,具体计算如下:


隐藏层梯度推导

其中,


∂ξi/∂zhi=δhi表示误差对于隐藏层输入的梯度。这个误差也可以解释为,zhi对于最后误差的贡献。那么,接下来我们定义一下这个误差梯度δhi


误差梯度

又应为∂zhi/∂wh=xi,那么我们能计算最后的值为:


梯度计算

在批处理中,对每个对应参数的梯度进行累加,就是最后的梯度。

gradient_hidden(wo, grad_output)函数实现了δh
gradient_weight_hidden(x, zh, h, grad_hidden)函数实现了∂ξ/∂wh
backprop_update(x, t, wh, wo, learning_rate)函数实现了BP算法的每次迭代过程。

  1. # Define the error function
  2. def gradient_output(y, t):
  3. return y - t
  4. # Define the gradient function for the weight parameter at the output layer
  5. def gradient_weight_out(h, grad_output):
  6. return h * grad_output
  7. # Define the gradient function for the hidden layer
  8. def gradient_hidden(wo, grad_output):
  9. return wo * grad_output
  10. # Define the gradient function for the weight parameter at the hidden layer
  11. def gradient_weight_hidden(x, zh, h, grad_hidden):
  12. return x * -2 * zh * h * grad_hidden
  13. # Define the update function to update the network parameters over 1 iteration
  14. def backprop_update(x, t, wh, wo, learning_rate):
  15. # Compute the output of the network
  16. # This can be done with y = nn(x, wh, wo), but we need the intermediate
  17. # h and zh for the weight updates.
  18. zh = x * wh
  19. h = rbf(zh) # hidden_activations(x, wh)
  20. y = output_activations(h, wo)
  21. # Compute the gradient at the output
  22. grad_output = gradient_output(y, t)
  23. # Get the delta for wo
  24. d_wo = learning_rate * gradient_weight_out(h, grad_output)
  25. # Compute the gradient at the hidden layer
  26. grad_hidden = gradient_hidden(wo, grad_output)
  27. # Get the delta for wh
  28. d_wh = learning_rate * gradient_weight_hidden(x, zh, h, grad_hidden)
  29. # return the update parameters
  30. return (wh-d_wh.sum(), wo-d_wo.sum())
BP算法更新

下面的代码,我们模拟了一个50次的循环。白色的点表示,参数whwo在误差面上面的第k次迭代。

在更新过程中,我们不断的线性减小学习率。这是为了在更新到最后的时候,学习率能是0。这样能保证最后的参数更新不会在最小值附近徘徊。

  1. # Run backpropagation
  2. # Set the initial weight parameter
  3. wh = 2
  4. wo = -5
  5. # Set the learning rate
  6. learning_rate = 0.2
  7. # Start the gradient descent updates and plot the iterations
  8. nb_of_iterations = 50 # number of gradient descent updates
  9. lr_update = learning_rate / nb_of_iterations # learning rate update rule
  10. w_cost_iter = [(wh, wo, cost_for_param(x, wh, wo, t))] # List to store the weight values over the iterations
  11. for i in range(nb_of_iterations):
  12. learning_rate -= lr_update # decrease the learning rate
  13. # Update the weights via backpropagation
  14. wh, wo = backprop_update(x, t, wh, wo, learning_rate)
  15. w_cost_iter.append((wh, wo, cost_for_param(x, wh, wo, t))) # Store the values for plotting
  16. # Print the final cost
  17. print('final cost is {:.2f} for weights wh: {:.2f} and wo: {:.2f}'.format(cost_for_param(x, wh, wo, t), wh, wo))

在我们的机器上面,最后输出的结果是:
final cost is 10.81 for weights wh: 1.20 and wo: 5.56

但由于参数初始化的不同,可能在你的机器上面运行会有不同的结果。

  1. # Plot the weight updates on the error surface
  2. # Plot the error surface
  3. fig = plt.figure()
  4. ax = Axes3D(fig)
  5. surf = ax.plot_surface(ws_x, ws_y, cost_ws, linewidth=0, cmap=cm.pink)
  6. ax.view_init(elev=60, azim=-30)
  7. cbar = fig.colorbar(surf)
  8. cbar.ax.set_ylabel('$\\xi$', fontsize=15)
  9. # Plot the updates
  10. for i in range(1, len(w_cost_iter)):
  11. wh1, wo1, c1 = w_cost_iter[i-1]
  12. wh2, wo2, c2 = w_cost_iter[i]
  13. # Plot the weight-cost value and the line that represents the update
  14. ax.plot([wh1], [wo1], [c1], 'w+') # Plot the weight cost value
  15. ax.plot([wh1, wh2], [wo1, wo2], [c1, c2], 'w-')
  16. # Plot the last weights
  17. wh1, wo1, c1 = w_cost_iter[len(w_cost_iter)-1]
  18. ax.plot([wh1], [wo1], c1, 'w+')
  19. # Shoz figure
  20. ax.set_xlabel('$w_h$', fontsize=15)
  21. ax.set_ylabel('$w_o$', fontsize=15)
  22. ax.set_zlabel('$\\xi$', fontsize=15)
  23. plt.title('Gradient descent updates on cost surface')
  24. plt.grid()
  25. plt.show()

Gradient descent updates on cost surface

分类结果的可视化

下面的代码可视化了最后的分类结果。在输入空间域里面,蓝色和红色代表了最后的分类颜色。从图中,我们发现所有的样本都被正确分类了。

  1. # Plot the resulting decision boundary
  2. # Generate a grid over the input space to plot the color of the
  3. # classification at that grid point
  4. nb_of_xs = 100
  5. xs = np.linspace(-3, 3, num=nb_of_xs)
  6. ys = np.linspace(-1, 1, num=nb_of_xs)
  7. xx, yy = np.meshgrid(xs, ys) # create the grid
  8. # Initialize and fill the classification plane
  9. classification_plane = np.zeros((nb_of_xs, nb_of_xs))
  10. for i in range(nb_of_xs):
  11. for j in range(nb_of_xs):
  12. classification_plane[i,j] = nn_predict(xx[i,j], wh, wo)
  13. # Create a color map to show the classification colors of each grid point
  14. cmap = ListedColormap([
  15. colorConverter.to_rgba('r', alpha=0.25),
  16. colorConverter.to_rgba('b', alpha=0.25)])
  17. # Plot the classification plane with decision boundary and input samples
  18. plt.figure(figsize=(8,0.5))
  19. plt.contourf(xx, yy, classification_plane, cmap=cmap)
  20. plt.xlim(-3,3)
  21. plt.ylim(-1,1)
  22. # Plot samples from both classes as lines on a 1D space
  23. plt.plot(x_blue, np.zeros_like(x_blue), 'b|', ms = 30)
  24. plt.plot(x_red_left, np.zeros_like(x_red_left), 'r|', ms = 30)
  25. plt.plot(x_red_right, np.zeros_like(x_red_right), 'r|', ms = 30)
  26. plt.gca().axes.get_yaxis().set_visible(False)
  27. plt.title('Input samples and their classification')
  28. plt.xlabel('x')
  29. plt.show()

分类结果

输入域的转换

为什么神经网络模型能利用最后的线性Logistic实现非线性的分类呢?关键原因是隐藏层的非线性RBF函数。RBF转换函数可以将靠近原点的样本(蓝色分类)的输出值大于0,而远离原点的样本(红色样本)的输出值接近0。如下图所示,红色样本的位置都在左边接近0的位置,蓝色样本的位置在远离0的位置。这个结果就是使用线性Logistic分类的。

同时注意,我们使用的高斯函数的峰值偏移量是0,也就是说,高斯函数产生的值是一个关于原点分布的数据。

  1. # Plot projected samples from both classes as lines on a 1D space
  2. plt.figure(figsize=(8,0.5))
  3. plt.xlim(-0.01,1)
  4. plt.ylim(-1,1)
  5. # Plot projected samples
  6. plt.plot(hidden_activations(x_blue, wh), np.zeros_like(x_blue), 'b|', ms = 30)
  7. plt.plot(hidden_activations(x_red_left, wh), np.zeros_like(x_red_left), 'r|', ms = 30)
  8. plt.plot(hidden_activations(x_red_right, wh), np.zeros_like(x_red_right), 'r|', ms = 30)
  9. plt.gca().axes.get_yaxis().set_visible(False)
  10. plt.title('Projection of the input samples by the hidden layer.')
  11. plt.xlabel('h')
  12. plt.show()

RBF函数产生图
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/314059
推荐阅读
相关标签
  

闽ICP备14008679号