当前位置:   article > 正文

什么是全连接神经网络_神经网络中的全链接是指

神经网络中的全链接是指

什么是全连接神经网络,怎么理解“全连接”?

对n-1层和n层而言
n-1层的任意一个节点,都和第n层所有节点有连接。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权。

全连接是一种不错的模式,但是网络很大的时候,训练速度回很慢。部分连接就是认为的切断某两个节点直接的连接,这样训练时计算量大大减小

最简单的全连接神经网络demo,python:
  1. #coding:utf-8
  2. import numpy as np
  3. #https://en.wikipedia.org/wiki/Backpropagation
  4. #http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html
  5. #4*3*2
  6. speed = 1
  7. def sigmoid(z):
  8. """The sigmoid function."""
  9. return 1.0 / (1.0 + np.exp(-z))
  10. def sigmoid_prime(z):
  11. """Derivative of the sigmoid function."""
  12. return sigmoid(z) * (1 - sigmoid(z))
  13. w1 = []
  14. w1.append([])
  15. w1[0].append(0.1)
  16. w1[0].append(0.2)
  17. w1[0].append(0.3)
  18. w1.append([])
  19. w1[1].append(0.11)
  20. w1[1].append(0.22)
  21. w1[1].append(0.33)
  22. w1.append([])
  23. w1[2].append(0.5)
  24. w1[2].append(0.6)
  25. w1[2].append(0.7)
  26. w1.append([])
  27. w1[3].append(0.55)
  28. w1[3].append(0.66)
  29. w1[3].append(0.77)
  30. w2 = []
  31. w2.append([])
  32. w2[0].append(0.1)
  33. w2[0].append(0.2)
  34. w2.append([])
  35. w2[1].append(0.3)
  36. w2[1].append(0.4)
  37. w2.append([])
  38. w2[2].append(0.5)
  39. w2[2].append(0.6)
  40. W1 = np.array([
  41. [w1[0][0],w1[0][1],w1[0][2]],
  42. [w1[1][0],w1[1][1],w1[1][2]],
  43. [w1[2][0],w1[2][1],w1[2][2]],
  44. [w1[3][0],w1[3][1],w1[3][2]]
  45. ])
  46. W2 = np.array([
  47. [w2[0][0],w2[0][1]],
  48. [w2[1][0],w2[1][1]],
  49. [w2[2][0],w2[2][1]],
  50. ])
  51. X = []
  52. Y = []
  53. X.append(np.array([1,1,1,1]))
  54. Y.append([1,1])
  55. X.append(np.array([-1,-1,-1,-1]))
  56. Y.append([0,0])
  57. X.append(np.array([1,1,-1,-1]))
  58. Y.append([1,0])
  59. X.append(np.array([-1,-1,1,1]))
  60. Y.append([0,1])
  61. for i in range(1,10000):
  62. zs = []
  63. activations = []
  64. print X[i%4]
  65. z1 = np.dot(W1.transpose(),X[i%4])
  66. zs.append(z1)
  67. a1 = sigmoid(z1)
  68. activations.append(a1)
  69. z2 = np.dot(W2.transpose(),a1)
  70. zs.append(z2)
  71. a2 = sigmoid(z2)
  72. activations.append(a2)
  73. print a2
  74. error = []
  75. error.append([])
  76. error[0].append(Y[i%4][0] - a2[0])
  77. error[0].append(Y[i%4][1] - a2[1])
  78. error.append([])
  79. error[1].append(error[0][0]*W2[0][0]+error[0][1]*W2[0][1])
  80. error[1].append(error[0][0]*W2[1][0]+error[0][1]*W2[1][1])
  81. error[1].append(error[0][0]*W2[2][0]+error[0][1]*W2[2][1])
  82. W1[0][0] = sigmoid_prime(zs[0][0])*X[i%4][0]*error[1][0]*speed + W1[0][0]
  83. W1[0][1] = sigmoid_prime(zs[0][1])*X[i%4][0]*error[1][1]*speed + W1[0][1]
  84. W1[0][2] = sigmoid_prime(zs[0][2])*X[i%4][0]*error[1][2]*speed + W1[0][2]
  85. W1[1][0] = sigmoid_prime(zs[0][0])*X[i%4][1]*error[1][0]*speed + W1[1][0]
  86. W1[1][1] = sigmoid_prime(zs[0][1])*X[i%4][1]*error[1][1]*speed + W1[1][1]
  87. W1[1][2] = sigmoid_prime(zs[0][2])*X[i%4][1]*error[1][2]*speed + W1[1][2]
  88. W1[2][0] = sigmoid_prime(zs[0][0])*X[i%4][2]*error[1][0]*speed + W1[2][0]
  89. W1[2][1] = sigmoid_prime(zs[0][1])*X[i%4][2]*error[1][1]*speed + W1[2][1]
  90. W1[2][2] = sigmoid_prime(zs[0][2])*X[i%4][2]*error[1][2]*speed + W1[2][2]
  91. W1[3][0] = sigmoid_prime(zs[0][0])*X[i%4][3]*error[1][0]*speed + W1[3][0]
  92. W1[3][1] = sigmoid_prime(zs[0][1])*X[i%4][3]*error[1][1]*speed + W1[3][1]
  93. W1[3][2] = sigmoid_prime(zs[0][2])*X[i%4][3]*error[1][2]*speed + W1[3][2]
  94. W2[0][0] = sigmoid_prime(zs[1][0])*activations[0][0]*error[0][0]*speed + W2[0][0]
  95. W2[0][1] = sigmoid_prime(zs[1][1])*activations[0][0]*error[0][1]*speed + W2[0][1]
  96. W2[1][0] = sigmoid_prime(zs[1][0])*activations[0][1]*error[0][0]*speed + W1[1][0]
  97. W2[1][1] = sigmoid_prime(zs[1][1])*activations[0][1]*error[0][1]*speed + W1[1][1]
  98. W2[2][0] = sigmoid_prime(zs[1][0])*activations[0][2]*error[0][0]*speed + W1[2][0]
  99. W2[2][1] = sigmoid_prime(zs[1][1])*activations[0][2]*error[0][1]*speed + W1[2][1]

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号