当前位置:   article > 正文

神经网络算法入门和代码(感知机,RBF,SOM等)_神经网络代码

神经网络代码

文章内容

  • 感知机(Perceptron
  • 反向传播算法(Back Propagation algorithm)
  • RBF(Radial Basis Function,径向基函数) 网络:单一层前馈网络,它使用径向基作为隐层神经元激活函数
  • ART(Adaptive Resonance Theory,自适应谐振理论) 网络:竞争型学习无监督学习策略
  • SOM(Self Organizing Map,自组织映射) 网络:竞争性学习型的无监督神经网络
  • 级联相关(Cascade-Correlation) 网络:结构自适应网络
  • Elman网络:递归网络
  • Boltzmann机

一、 感知机(Perceptron)

1. 含义

一个感知器有如下组成部分

  • 输入权值:一个感知器可以接收多个输入x,每个输入上有一个权值w,此外还有一个偏置项b,就是上图中的。
  • 激活函数:如阶跃函数(Step function),sigmoid函数
  • 输出:y= f(wx+b)
  • 权重更新:w_i\leftarrow w_i + \Delta w_i,其中\Delta w_i = \eta (y-\hat{y})x_i,η为学习率

单层感知机只能解决线性可分的问题。而多层感知器可以拟合任何的线性函数,任何线性分类线性回归问题都可以用感知器来解决。

2. 更新方法

在这里插入图片描述

3. 代码

  1. class Perceptron(object):
  2. def __init__(self, input_num, activator):
  3. '''
  4. 初始化感知器,设置输入参数的个数,以及激活函数。
  5. 激活函数的类型为double -> double
  6. '''
  7. self.activator = activator
  8. # 权重向量初始化为0
  9. self.weights = [0.0 for _ in range(input_num)]
  10. # 偏置项初始化为0
  11. self.bias = 0.0
  12. def __str__(self):
  13. '''
  14. 打印学习到的权重、偏置项
  15. '''
  16. return 'weights\t:%s\nbias\t:%f\n' % (self.weights, self.bias)
  17. def predict(self, input_vec):
  18. '''
  19. 输入向量,输出感知器的计算结果
  20. '''
  21. # 把input_vec[x1,x2,x3...]和weights[w1,w2,w3,...]打包在一起
  22. # 变成[(x1,w1),(x2,w2),(x3,w3),...]
  23. # 然后利用map函数计算[x1*w1, x2*w2, x3*w3]
  24. # 最后利用reduce求和
  25. return self.activator(
  26. reduce(lambda a, b: a + b,
  27. map(lambda (x, w): x * w,
  28. zip(input_vec, self.weights))
  29. , 0.0) + self.bias)
  30. def train(self, input_vecs, labels, iteration, rate):
  31. '''
  32. 输入训练数据:一组向量、与每个向量对应的label;以及训练轮数、学习率
  33. '''
  34. for i in range(iteration):
  35. self._one_iteration(input_vecs, labels, rate)
  36. def _one_iteration(self, input_vecs, labels, rate):
  37. '''
  38. 一次迭代,把所有的训练数据过一遍
  39. '''
  40. # 把输入和输出打包在一起,成为样本的列表[(input_vec, label), ...]
  41. # 而每个训练样本是(input_vec, label)
  42. samples = zip(input_vecs, labels)
  43. # 对每个样本,按照感知器规则更新权重
  44. for (input_vec, label) in samples:
  45. # 计算感知器在当前权重下的输出
  46. output = self.predict(input_vec)
  47. # 更新权重
  48. self._update_weights(input_vec, output, label, rate)
  49. def _update_weights(self, input_vec, output, label, rate):
  50. '''
  51. 按照感知器规则更新权重
  52. '''
  53. # 把input_vec[x1,x2,x3,...]和weights[w1,w2,w3,...]打包在一起
  54. # 变成[(x1,w1),(x2,w2),(x3,w3),...]
  55. # 然后利用感知器规则更新权重
  56. delta = label - output
  57. self.weights = map(
  58. lambda (x, w): w + rate * delta * x,
  59. zip(input_vec, self.weights))
  60. # 更新bias
  61. self.bias += rate * delta

训练和预测:

  1. def f(x):
  2. '''
  3. 定义激活函数f
  4. '''
  5. return 1 if x > 0 else 0
  6. def get_training_dataset():
  7. '''
  8. 基于and真值表构建训练数据
  9. '''
  10. # 构建训练数据
  11. # 输入向量列表
  12. input_vecs = [[1,1], [0,0], [1,0], [0,1]]
  13. # 期望的输出列表,注意要与输入一一对应
  14. # [1,1] -> 1, [0,0] -> 0, [1,0] -> 0, [0,1] -> 0
  15. labels = [1, 0, 0, 0]
  16. return input_vecs, labels
  17. def train_and_perceptron():
  18. '''
  19. 使用and真值表训练感知器
  20. '''
  21. # 创建感知器,输入参数个数为2(因为and是二元函数),激活函数为f
  22. p = Perceptron(2, f)
  23. # 训练,迭代10轮, 学习速率为0.1
  24. input_vecs, labels = get_training_dataset()
  25. p.train(input_vecs, labels, 10, 0.1)
  26. #返回训练好的感知器
  27. return p
  28. if __name__ == '__main__':
  29. # 训练and感知器
  30. and_perception = train_and_perceptron()
  31. # 打印训练获得的权重
  32. print and_perception
  33. # 测试
  34. print '1 and 1 = %d' % and_perception.predict([1, 1])
  35. print '0 and 0 = %d' % and_perception.predict([0, 0])
  36. print '1 and 0 = %d' % and_perception.predict([1, 0])
  37. print '0 and 1 = %d' % and_perception.predict([0, 1])

二、反向传播(BP)算法

1. 内容

  • 权重和偏差
  • 代价函数(cost function):均方误差
  • 权重更新:梯度下降(gradient descent)策略
  • 更多优化方法:"正则化",在误差目标函数中添加一个用于描述网络复杂度的部分(如w²)

2. 参数计算与更新

2.1 总误差

2.2 误差在隐藏层反向传播(输出层->隐藏层)

权重参数w5为例,如果我们想知道w5对整体误差产生了多少影响,可以用整体误差对w5求偏导求出:(链式法则) 

求三项偏导值

 

 所以,我们得到:

可以取符号δ简化公式(可选):

最后更新权重w:

2.3 误差反向传播(隐藏层->隐藏层)

方法差不多,但要计算误差基于传递过来的之前的误差:

该图中δ含义不一样,只代表(target-out)的误差

out(h1)会接受E(o1)和E(o2)两个地方传来的误差,所以这个地方两个都要计算。

最后,更新权重w1:

总结,前向传播和反向传播顺序说明图: 

3. 随机梯度更新和批量更新

批量(batch)更新时,计算完一批样本后Δw再更新:

在这里插入图片描述

批量梯度下降随机梯度下降(stochastic gradient descent)对比: 

Mini-Batch 梯度下降算法是介于批量梯度下降算法和随机梯度下降算法之间的算法,每计算常数 次训练实例,便更新一次参数。

在批量梯度下降算法中每次迭代我们都要使用到所有的m个样本,在随机梯度下降中我们每次迭代只需要一个样本。Mini-batch算法具体来说就是每次迭代,会使用b个样本,这个b我们称为mini-batch大小的参数

3. 代码

  1. #coding:utf-8
  2. import random
  3. import math
  4. #
  5. # 参数解释:
  6. # "pd_" :偏导的前缀
  7. # "d_" :导数的前缀
  8. # "w_ho" :隐含层到输出层的权重系数索引
  9. # "w_ih" :输入层到隐含层的权重系数的索引
  10. class NeuralNetwork:
  11. LEARNING_RATE = 0.5
  12. def __init__(self, num_inputs, num_hidden, num_outputs, hidden_layer_weights = None, hidden_layer_bias = None, output_layer_weights = None, output_layer_bias = None):
  13. self.num_inputs = num_inputs
  14. self.hidden_layer = NeuronLayer(num_hidden, hidden_layer_bias)
  15. self.output_layer = NeuronLayer(num_outputs, output_layer_bias)
  16. self.init_weights_from_inputs_to_hidden_layer_neurons(hidden_layer_weights)
  17. self.init_weights_from_hidden_layer_neurons_to_output_layer_neurons(output_layer_weights)
  18. def init_weights_from_inputs_to_hidden_layer_neurons(self, hidden_layer_weights):
  19. weight_num = 0
  20. for h in range(len(self.hidden_layer.neurons)):
  21. for i in range(self.num_inputs):
  22. if not hidden_layer_weights:
  23. self.hidden_layer.neurons[h].weights.append(random.random())
  24. else:
  25. self.hidden_layer.neurons[h].weights.append(hidden_layer_weights[weight_num])
  26. weight_num += 1
  27. def init_weights_from_hidden_layer_neurons_to_output_layer_neurons(self, output_layer_weights):
  28. weight_num = 0
  29. for o in range(len(self.output_layer.neurons)):
  30. for h in range(len(self.hidden_layer.neurons)):
  31. if not output_layer_weights:
  32. self.output_layer.neurons[o].weights.append(random.random())
  33. else:
  34. self.output_layer.neurons[o].weights.append(output_layer_weights[weight_num])
  35. weight_num += 1
  36. def inspect(self):
  37. print('------')
  38. print('* Inputs: {}'.format(self.num_inputs))
  39. print('------')
  40. print('Hidden Layer')
  41. self.hidden_layer.inspect()
  42. print('------')
  43. print('* Output Layer')
  44. self.output_layer.inspect()
  45. print('------')
  46. def feed_forward(self, inputs):
  47. hidden_layer_outputs = self.hidden_layer.feed_forward(inputs)
  48. return self.output_layer.feed_forward(hidden_layer_outputs)
  49. def train(self, training_inputs, training_outputs):
  50. self.feed_forward(training_inputs)
  51. # 1. 输出神经元的值
  52. pd_errors_wrt_output_neuron_total_net_input = [0] * len(self.output_layer.neurons)
  53. for o in range(len(self.output_layer.neurons)):
  54. # ∂E/∂zⱼ
  55. pd_errors_wrt_output_neuron_total_net_input[o] = self.output_layer.neurons[o].calculate_pd_error_wrt_total_net_input(training_outputs[o])
  56. # 2. 隐含层神经元的值
  57. pd_errors_wrt_hidden_neuron_total_net_input = [0] * len(self.hidden_layer.neurons)
  58. for h in range(len(self.hidden_layer.neurons)):
  59. # dE/dyⱼ = Σ ∂E/∂zⱼ * ∂z/∂yⱼ = Σ ∂E/∂zⱼ * wᵢⱼ
  60. d_error_wrt_hidden_neuron_output = 0
  61. for o in range(len(self.output_layer.neurons)):
  62. d_error_wrt_hidden_neuron_output += pd_errors_wrt_output_neuron_total_net_input[o] * self.output_layer.neurons[o].weights[h]
  63. # ∂E/∂zⱼ = dE/dyⱼ * ∂zⱼ/∂
  64. pd_errors_wrt_hidden_neuron_total_net_input[h] = d_error_wrt_hidden_neuron_output * self.hidden_layer.neurons[h].calculate_pd_total_net_input_wrt_input()
  65. # 3. 更新输出层权重系数
  66. for o in range(len(self.output_layer.neurons)):
  67. for w_ho in range(len(self.output_layer.neurons[o].weights)):
  68. # ∂Eⱼ/∂wᵢⱼ = ∂E/∂zⱼ * ∂zⱼ/∂wᵢⱼ
  69. pd_error_wrt_weight = pd_errors_wrt_output_neuron_total_net_input[o] * self.output_layer.neurons[o].calculate_pd_total_net_input_wrt_weight(w_ho)
  70. # Δw = α * ∂Eⱼ/∂wᵢ
  71. self.output_layer.neurons[o].weights[w_ho] -= self.LEARNING_RATE * pd_error_wrt_weight
  72. # 4. 更新隐含层的权重系数
  73. for h in range(len(self.hidden_layer.neurons)):
  74. for w_ih in range(len(self.hidden_layer.neurons[h].weights)):
  75. # ∂Eⱼ/∂wᵢ = ∂E/∂zⱼ * ∂zⱼ/∂wᵢ
  76. pd_error_wrt_weight = pd_errors_wrt_hidden_neuron_total_net_input[h] * self.hidden_layer.neurons[h].calculate_pd_total_net_input_wrt_weight(w_ih)
  77. # Δw = α * ∂Eⱼ/∂wᵢ
  78. self.hidden_layer.neurons[h].weights[w_ih] -= self.LEARNING_RATE * pd_error_wrt_weight
  79. def calculate_total_error(self, training_sets):
  80. total_error = 0
  81. for t in range(len(training_sets)):
  82. training_inputs, training_outputs = training_sets[t]
  83. self.feed_forward(training_inputs)
  84. for o in range(len(training_outputs)):
  85. total_error += self.output_layer.neurons[o].calculate_error(training_outputs[o])
  86. return total_error
  87. class NeuronLayer:
  88. def __init__(self, num_neurons, bias):
  89. # 同一层的神经元共享一个截距项b
  90. self.bias = bias if bias else random.random()
  91. self.neurons = []
  92. for i in range(num_neurons):
  93. self.neurons.append(Neuron(self.bias))
  94. def inspect(self):
  95. print('Neurons:', len(self.neurons))
  96. for n in range(len(self.neurons)):
  97. print(' Neuron', n)
  98. for w in range(len(self.neurons[n].weights)):
  99. print(' Weight:', self.neurons[n].weights[w])
  100. print(' Bias:', self.bias)
  101. def feed_forward(self, inputs):
  102. outputs = []
  103. for neuron in self.neurons:
  104. outputs.append(neuron.calculate_output(inputs))
  105. return outputs
  106. def get_outputs(self):
  107. outputs = []
  108. for neuron in self.neurons:
  109. outputs.append(neuron.output)
  110. return outputs
  111. class Neuron:
  112. def __init__(self, bias):
  113. self.bias = bias
  114. self.weights = []
  115. def calculate_output(self, inputs):
  116. self.inputs = inputs
  117. self.output = self.squash(self.calculate_total_net_input())
  118. return self.output
  119. def calculate_total_net_input(self):
  120. total = 0
  121. for i in range(len(self.inputs)):
  122. total += self.inputs[i] * self.weights[i]
  123. return total + self.bias
  124. # 激活函数sigmoid
  125. def squash(self, total_net_input):
  126. return 1 / (1 + math.exp(-total_net_input))
  127. def calculate_pd_error_wrt_total_net_input(self, target_output):
  128. return self.calculate_pd_error_wrt_output(target_output) * self.calculate_pd_total_net_input_wrt_input();
  129. # 每一个神经元的误差是由平方差公式计算的
  130. def calculate_error(self, target_output):
  131. return 0.5 * (target_output - self.output) ** 2
  132. def calculate_pd_error_wrt_output(self, target_output):
  133. return -(target_output - self.output)
  134. def calculate_pd_total_net_input_wrt_input(self):
  135. return self.output * (1 - self.output)
  136. def calculate_pd_total_net_input_wrt_weight(self, index):
  137. return self.inputs[index]
  138. # 文中的例子:
  139. nn = NeuralNetwork(2, 2, 2, hidden_layer_weights=[0.15, 0.2, 0.25, 0.3], hidden_layer_bias=0.35, output_layer_weights=[0.4, 0.45, 0.5, 0.55], output_layer_bias=0.6)
  140. for i in range(10000):
  141. nn.train([0.05, 0.1], [0.01, 0.09])
  142. print(i, round(nn.calculate_total_error([[[0.05, 0.1], [0.01, 0.09]]]), 9))
  143. #另外一个例子,可以把上面的例子注释掉再运行一下:
  144. # training_sets = [
  145. # [[0, 0], [0]],
  146. # [[0, 1], [1]],
  147. # [[1, 0], [1]],
  148. # [[1, 1], [0]]
  149. # ]
  150. # nn = NeuralNetwork(len(training_sets[0][0]), 5, len(training_sets[0][1]))
  151. # for i in range(10000):
  152. # training_inputs, training_outputs = random.choice(training_sets)
  153. # nn.train(training_inputs, training_outputs)
  154. # print(i, nn.calculate_total_error(training_sets))

三、SOM自组织映射网络

SOM网络又称Kohonen网络,是自组织竞争型神经网络的一种,该网络为无监督学习网络,能够识别环境特征并自动聚类。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。

1. SOM网络拓扑结构

  • 网络包含两层,即一个输入层和一个输出层,输出层也称竞争层,不包括隐层。
  • 输入层中的每个输入节点都与输出节点完全相连。
  • 输出节点呈二维结构分布,且节点之间具有侧向连接。于是,对某个输出节点来说,在一定邻域范围内会有一定数量的“邻近细胞”,即邻接节点

2. 原理

  1. 分类与输入模式的相似性:分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。由于无导师学习的训练样本中不含期望输出,因此对于某一输入模式样本应属于哪一类并没有任何先验知识。对于一组输入模式,只能根据它们之间的相似程度来分为若干类,因此,相似性是输入模式的聚类依据
  2. 相似性测量:神经网络的输入模式向量的相似性测量可用向量之间的距离来衡量。常用的方法有欧氏距离法和余弦法两种。
  3. 竞争学习原理:竞争学习规则的生理学基础是神经细胞的侧抑制现象:当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。最强的抑制作用是竞争获胜的“唯我独兴”,这种做法称为“胜者为王”(Winner-Take-All)。竞争学习规则就是从神经细胞的侧抑制现象获得的。它的学习步骤为:A、向量归一化;B、寻找获胜神经元;C、网络输出与权调整;D、重新归一化处理
SOM网络的竞争调节策略,优胜节点及邻接节点的更新

3. 具体算法

网络学习过程中,当样本输入网络时, 竞争层上的神经元计算 输入样本与 竞争层神经元权值之间的 欧几里德距离,距离最小的神经元为获胜神经元。调整获胜神经元和相邻神经元权值,使获得神经元及周边权值靠近该输入样本。通过反复训练,最终各神经元的连接权值具有一定的分布,该分布把数据之间的相似性组织到代表各类的神经元上,使同类神经元具有相近的权系数,不同类的神经元权系数差别明显。需要注意的是,在学习的过程中,权值修改学习速率和神经元领域均在不断较少,从而使同类神经元逐渐集中。

总的来说,SOM网络包含初始化、竞争、迭代三块内容

3.1 初始化

  1. 归一化数据集。
  2. 设计竞争层结构。一般根据预估的聚类簇数进行设置。比如要分成4类,那我可以将竞争层设计为2*2,1*4,4*1。SOM网络不需要预先提供聚类数量,类别的数据由网络自动识别出来。
  3. 预设竞争层神经元的权重节点。一般我们会根据输入数据的维度和竞争层预估的分类数来设置权重节点,若输入为二维数据,最终聚类为4类,则权重矩阵就是2*4。
  4. 初始化邻域半径学习率

3.2 竞争过程

  1. 随机选择样本,根据权重节点计算到竞争层每个神经元节点的距离。一般我们选择欧式距离公式求距离。

    (或者另一种方法:权重w和输入x的点积最大判断优胜节点)
  2. 选择优胜节点。通过竞争,选择距离最小的神经元节点作为优胜节点。

Best Matching Unit(BMU) 优胜节点: The winner node(or weight) which has the shortest distance from itself to the sample vector. There are numerous ways to determine the distance, however, the most commonly used method is the Euclidean Distance, is the most common metric to calculate distance between weights and sample vector.

3.3 迭代过程

1、圈定出优胜邻域(neighborhood)内的所有节点。根据邻域半径,圈定出距离小于邻域半径的节点,形成优胜邻域。

2、对优胜邻域内的节点权重进行迭代更新。更新的思想是越靠近优胜节点,更新幅度越大;越远离优胜节点,更新幅度越小,故我们需要对不同的节点增加一个更新约束,一般可以高斯函数求得。另外我们更新节点的目的是为了使得优胜节点更加逼近样本点,故在节点权重的更新上,我们采用以下公式:

不同neighborhood function:

  • case ’bubble’, H = (Ud<=radius(t));
  • case ’gaussian’, H = exp(-Ud/(2*radius(t)));
  • case ’cutgauss’, H = exp(-Ud/(2radius(t))) . (Ud<=radius(t));
  • case ’ep’, H = (1-Ud/radius(t)) .* (Ud<=radius(t));

3.4 衰减函数 decay func

SOM网络的另一个特点是,学习率和邻域范围随着迭代次数会逐渐衰减

最常用的decay funciton是 1 / (1 + t/T)

sigma(t) = sigma / (1 + t/T)

learning_rate(t) = learning_rate / (1 + t/T)

t 代表当前迭代次数
T = 总迭代次数 / 2

4. 实际例子

初始权重为w1 = (0.45,0.89) , w2 = (0.55,0.83) , w3 = (0.95,0.32) 和 w4 = (0.62,0.78) 。让四个神经元(N=4),N1, N2, N3和N4分别位于直角坐标平面位置(0,0), (1,0), (1,0)和(1,1)的网格中。假设网络接受二维(A=2)输入矢量(x1,x2)。让w_i= (w1_i,w2_i)为神经元i的权重 . neighborhood radius = 0.6。输入向量X=(3,1)。假设学习率=0.5,并且在整个过程中是恒定的。假设初始权重如图中所述。

5. 代码

References

零基础入门深度学习(1) - 感知器 - 作业部落 Cmd Markdown 编辑阅读器

一文弄懂神经网络中的反向传播法——BackPropagation

Backpropagation

神经网络算法总结_晴晴_Amanda的博客-CSDN博客

批量梯度下降,随机梯度下降,mini-batch随机梯度下降对比说明: - 知乎

机器学习算法推导&手写实现07——SOM网络 - 知乎

自组织映射神经网络(SOM)_意念回复的博客-CSDN博客

https://medium.com/analytics-vidhya/how-does-self-organizing-algorithm-works-f0664af9bf04

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/秋刀鱼在做梦/article/detail/767282
推荐阅读
相关标签
  

闽ICP备14008679号