当前位置:   article > 正文

深入理解多层感知机(MLP):原理与代码解析

mlp


多层感知机(MLP)是一种经典的神经网络模型,由多个神经元层组成。它的结构和功能使其成为深度学习中的重要组成部分。MLP在各种任务中表现出色,如图像分类、文本分类、预测和回归等。

1. MLP的原理

1.1 结构

MLP由输入层、隐藏层和输出层组成。输入层接收输入数据,隐藏层通过学习特征表示,输出层产生最终的预测结果。隐藏层和输出层的每个神经元都具有激活函数,用于引入非线性映射。
在这里插入图片描述

1.2 激活函数

常用的激活函数包括Sigmoid、ReLU、Tanh等。激活函数的作用是在神经网络中引入非线性性质,使其能够学习复杂的非线性关系。

1.3 前向传播

MLP的前向传播过程即从输入层到输出层的计算过程。它涉及到权重和偏置的计算、激活函数的应用等。通过一个简单的二分类任务为例来演示MLP的前向传播过程。

import numpy as np

def sigmoid(x):
    return 1 / (1 + np.exp(-x))

# MLP的前向传播
def forward_propagation(inputs, weights, biases):
    hidden_layer = sigmoid(np.dot(inputs, weights[0]) + biases[0])
    output_layer = sigmoid(np.dot(hidden_layer, weights[1]) + biases[1])
    return output_layer

# 输入数据
inputs = np.array([1, 2, 3])
# 权重和偏置
weights = [np.array([[0.2, 0.3, 0.4], [0.3, 0.4, 0.5]]), np.array([0.5, 0.6])]
biases = [np.array([0.1, 0.2]), np.array([0.3])]

# 前向传播计算
output = forward_propagation(inputs, weights, biases)
print("预测结果:", output)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

代码中,定义了一个forward_propagation函数,该函数接收输入数据、权重和偏置作为参数,并通过矩阵乘法和激活函数进行前向传播计算。最终输出的output_layer即为MLP的预测结果。

1.4 反向传播算法

反向传播算法是用于训练MLP模型的关键步骤。通过计算梯度来调整权重和偏置,以最小化预测结果与真实结果之间的误差。在本文中,将使用反向传播算法来训练MLP模型并进行分类任务。

2.MLP分类任务应用

使用Python和NumPy库来实现MLP模型,并使用一个简单的数据集进行训练和测试。

import numpy as np

# MLP类
class MLP:
    def __init__(self, num_inputs, num_hidden, num_outputs):
        self.weights = [np.random.randn(num_inputs, num_hidden), np.random.randn(num_hidden, num_outputs)]
        self.biases = [np.zeros(num_hidden), np.zeros(num_outputs)]
    
    def forward_propagation(self, inputs):
        hidden_layer = sigmoid(np.dot(inputs, self.weights[0]) + self.biases[0])
        output_layer = sigmoid(np.dot(hidden_layer, self.weights[1]) + self.biases[1])
        return output_layer
    
    def train(self, inputs, targets, num_epochs, learning_rate):
        for epoch in range(num_epochs):
            # 前向传播
            output = self.forward_propagation(inputs)
            
            # 反向传播
            error = targets - output
            delta = error * output * (1 - output)
            hidden_error = np.dot(delta, self.weights[1].T)
            hidden_delta = hidden_error * hidden_layer * (1 - hidden_layer)
            
            # 权重和偏置更新
            self.weights[1] += learning_rate * np.dot(hidden_layer.T, delta)
            self.biases[1] += learning_rate * np.sum(delta, axis=0)
            self.weights[0] += learning_rate * np.dot(inputs.T, hidden_delta)
            self.biases[0] += learning_rate * np.sum(hidden_delta, axis=0)
    
    def predict(self, inputs):
        output = self.forward_propagation(inputs)
        return output

# Sigmoid激活函数
def sigmoid(x):
    return 1 / (1 + np.exp(-x))

# 数据集
inputs = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
targets = np.array([[0], [1], [1], [0]])

# 创建MLP模型
mlp = MLP(num_inputs=2, num_hidden=4, num_outputs=1)

# 训练模型
mlp.train(inputs, targets, num_epochs=10000, learning_rate=0.1)

# 测试模型
test_inputs = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
predictions = mlp.predict(test_inputs)
print("预测结果:", predictions)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52

首先定义一个MLP类,其中包含MLP模型的初始化、前向传播、训练和预测方法。我使用一个简单的逻辑门数据集进行训练和测试,其中inputs表示输入数据,targets表示对应的目标结果。通过调用train方法进行训练,并通过调用predict方法进行预测。

3.参考文献:

  1. Bishop, C. M. (1995). Neural Networks for Pattern Recognition. Oxford University Press.
  2. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/308234
推荐阅读
相关标签
  

闽ICP备14008679号