当前位置:   article > 正文

[机器学习]-3 万字话清从传统神经网络到深度学习

[机器学习]-3 万字话清从传统神经网络到深度学习

神经网络(Neural Networks, NNs)是机器学习的一种重要方法,灵感来源于生物神经系统,由大量互联的节点(称为神经元或单元)组成,通过调整这些节点间的连接权重来学习和表示复杂的非线性关系。传统神经网络包括感知机、Sigmoid神经元,以及更复杂的多层感知器。深度学习是基于深层次的神经网络,通过多层非线性变换从数据中学习特征和模式,通常由输入层、隐藏层和输出层组成,每一层由若干神经元构成,层与层之间通过权重连接;主流的深度学习有卷积神经网络、循环神经网络、生成对抗网络、Transformer等。

一 基于感知机的传统神经网络

感知机是最简单的也是最早的人工神经网络模型之一,由Frank Rosenblatt在1958年提出,它是一个二分类的线性分类器,可以看作是单层神经网络的基本形式。感知机模型的主要目标是找到一组权重,使得输入数据在这些权重的作用下能够正确分类。

1 模型组成

1)神经元

神经网络的基本构件是神经元。每个神经元接收多个输入信号,进行加权求和,并通过一个激活函数输出结果,即前向传播计算。

数学表达式为: y= f (∑i=1n(wixi+b)),其中xi是输入,wi是权重,b是偏置, f是激活函数,y是输出。

2)激活函数

激活函数用于引入非线性特性,使神经网络能够学习复杂的模式,常用的激活函数有:

  • Sigmoid: f(x)=1/{1 + e^{-x}}​
  • ReLU(Rectified Linear Unit): f(x)=max(0,x)
  • Tanh: f(x)=tanh(x)=(ex+e−x)/(ex−e−x)

3)层

神经网络由多个层组成:

  • 输入层输入特征向量 x=[x1,x2,...,xn]
  • 权重与输入特征对应的权重向量 w=[w1,w2,...,wn]
  • 偏置:一个常数 b
  • 输出层:通过激活函数(通常是符号函数)输出分类结果 y

2 训练过程

1)前向传播

输入数据经过各层网络的处理,最终产生输出。前向传播用于计算网络的预测结果。

2)损失函数

用于衡量预测结果与实际结果之间的差距。常见的损失函数有:

  • 均方误差(MSE):用于回归问题。MSE=1/n ∑i=1n(yi​−y^i)2
  • 交叉熵损失(Cross-Entropy Loss):用于分类问题。 常用二元交叉熵损失函数:L(y,y^)=−(ylog(y^)+(1−y)log(1−y^))

3)反向传播

通过计算损失函数相对于每个权重的梯度,更新网络权重以最小化损失。反向传播步骤:

  • 计算梯度:利用链式法则计算损失函数相对于每个权重的梯度。

∂L/∂w =(y^−y)x

∂L/∂b =y^−y

  • 更新权重:使用优化算法(如梯度下降)更新权重。

w←w−η(∂L/∂w )​

b←b−η(∂L/∂b)

4)优化算法

用于调整网络权重以最小化损失函数。常用的优化算法有:

  • 梯度下降:基本的优化算法,通过不断调整权重以最小化损失。
  • 随机梯度下降:每次仅使用一个样本计算梯度,适用于大规模数据。
  • Adam:结合了动量和自适应学习率,具有更好的收敛性。

二 深度学习

深度学习模型的组成与传统感知机模型类似,每个神经元接收输入信号,通过激活函数进行非线性变换后输出。前向传播就是指从输入层到输出层的计算过程,在每一层输入信号通过权重进行线性变换,然后通过激活函数进行非线性变换。损失函数用于衡量模型预测值与真实值之间的差异,常用的损失函数是均方误差和交叉熵损失函数。反向传播用于计算损失函数相对于每个权重和偏置的梯度,通过优化算法例如梯度下降用于最小化损失函数,从而更新模型参数。

卷积神经网络(CNN)

卷积神经网络是深度学习的一种专门用于处理具有网格拓扑结构(如图像)的数据的神经网络,在计算机视觉和图像处理等领域表现出色,并且广泛应用于诸如图像分类、目标检测和语义分割等任务。

1 网络组成

卷积神经网络由卷积层、池化层和全连接层组成,通过这几种层的组合,CNN能够有效地捕捉图像的空间和局部信息。

1)卷积层

卷积层是CNN的核心组件,用于提取输入数据的局部特征。卷积层通过卷积核(滤波器)在输入数据上滑动,并计算卷积运算的结果,产生特征图。

- 卷积运算:卷积运算是将卷积核与输入数据的每个局部区域进行逐元素相乘并求和,结果作为该区域的特征值。

- 卷积核:卷积核是一个小的权重矩阵,其大小通常远小于输入数据。卷积核的权重是通过训练学习得到的。

- 步幅:步幅决定卷积核在输入数据上滑动的步长。

- 填充:为了保持输出尺寸与输入尺寸一致,可以在输入数据的边缘填充零值。

2)池化层

池化层用于降低特征图的尺寸,从而减少参数数量和计算量,同时保留最重要的特征。池化操作通常有最大池化(Max Pooling)和平均池化(Average Pooling)。

- 最大池化:取池化窗口中的最大值作为特征值。

- 平均池化:取池化窗口中的平均值作为特征值。

3)全连接层

全连接层将前一层输出的特征图展平成一维向量,并与权重矩阵相乘,再加上偏置,最后通过激活函数进行非线性变换。全连接层用于综合高层次特征,并进行分类或回归任务。

2 典型结构示例

1)输入层:输入图像,例如28x28x1的灰度图像。

2)卷积层1:使用32个3x3的卷积核,步幅为1,填充方式为"SAME",输出尺寸为28x28x32。

3)池化层1:使用2x2的最大池化窗口,步幅为2,输出尺寸为14x14x32。

4)卷积层2:使用64个3x3的卷积核,步幅为1,填充方式为"SAME",输出尺寸为14x14x64。

5)池化层2:使用2x2的最大池化窗口,步幅为2,输出尺寸为7x7x64。

6)展平层:将特征图展平成一维向量,尺寸为7x7x64=3136。

7)全连接层1:具有128个神经元,激活函数为ReLU。

8)全连接层2:具有10个神经元,激活函数为Softmax,用于10类分类任务。

3 工作机制

卷积神经网络通过前向传播和反向传播来进行训练和预测。

1)前向传播

前向传播是指将输入数据依次通过卷积层、池化层和全连接层,最终得到输出结果。

2)反向传播

反向传播用于训练CNN模型,通过计算损失函数的梯度并更新权重和偏置,以最小化损失函数。反向传播包括以下步骤:

- 计算损失函数:根据预测值和真实值计算损失,例如交叉熵损失或均方误差。

- 梯度计算:使用链式法则计算损失函数对每层参数的梯度。

- 参数更新:使用梯度下降或其变种(如Adam优化算法)更新每层的权重和偏置。

4 典型应用

卷积神经网络在许多领域有广泛的应用,以下是几个主要的应用场景:

图像分类:CNN在图像分类任务中表现出色,例如在著名的ImageNet竞赛中,许多顶级模型都是基于CNN的。通过学习图像的局部特征和全局模式,CNN能够高效地进行图像分类。

目标检测:识别图像中的多个对象并确定它们的位置,Faster R-CNN、YOLO和SSD等基于CNN的模型在目标检测领域取得了显著成果。

语义分割:需要将图像中的每个像素分配给一个类别。U-Net和SegNet等基于CNN的模型在医学图像分割和自动驾驶等领域得到广泛应用。

5 实现示例

以下是一个使用Python和Keras框架实现的简单卷积神经网络,用于MNIST手写数字分类任务:

import tensorflow as tf

from tensorflow.keras.datasets import mnist

from tensorflow.keras.models import Sequential

from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense

from tensorflow.keras.utils import to_categorical

# 加载MNIST数据集

(X_train, y_train), (X_test, y_test) = mnist.load_data()

# 预处理数据

X_train = X_train.reshape(-1, 28, 28, 1).astype('float32') / 255.0

X_test = X_test.reshape(-1, 28, 28, 1).astype('float32') / 255.0

y_train = to_categorical(y_train, 10)

y_test = to_categorical(y_test, 10)

# 构建卷积神经网络模型

model = Sequential([

    Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)),

    MaxPooling2D(pool_size=(2, 2)),

    Conv2D(64, kernel_size=(3, 3), activation='relu'),

    MaxPooling2D(pool_size=(2, 2)),

    Flatten(),

    Dense(128, activation='relu'),

    Dense(10, activation='softmax')

])

# 编译模型

model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

# 训练模型

model.fit(X_train, y_train, batch_size=128, epochs=10, validation_split=0.2)

# 评估模型

loss, accuracy = model.evaluate(X_test, y_test)

print(f'Test accuracy: {accuracy}')

循环神经网络(RNN)

循环神经网络是一种用于处理序列数据的神经网络,具有时间记忆能力能够捕捉输入数据中的时序信息,在自然语言处理、语音识别和时间序列预测等领域有广泛的应用。常见变种包括长短期记忆(LSTM)和门控循环单元(GRU)。

1 网络组成

RNN的核心思想是利用隐藏状态来存储和传递序列信息,与其它神经网络不同的是它在每个时间步都会将前一个时间步的隐藏状态作为当前时间步的输入之一,从而在序列中传递信息。RNN由输入层、隐藏层和输出层组成:

1)输入层:接收当前时间步的输入向量 xt。

2)隐藏层:计算当前时间步的隐藏状态ht,隐藏状态由当前输入向量 xt和前一时间步的隐藏状态 h{t-1} 共同决定。

ht​=σ(Wh​xt​+Uh​ h{t-1} +bh​)

3)输出层:计算当前时间步的输出向量 yt。

yt​=σ(Wy​ht​+by​)

其中Wh、Uh、Wy、bh和by是网络的权重和偏置参数,σ是激活函数。

2 RNN的变种

虽然RNN能够捕捉序列中的时序信息,但它在处理长序列时会遇到梯度消失和梯度爆炸问题。为了解决这些问题,出现了多种RNN的变种,包括长短期记忆网络(LSTM)和门控循环单元(GRU)。

1)长短期记忆网络

LSTM通过引入门控机制来控制信息的流动,从而有效地缓解了梯度消失问题。LSTM包括三个门:输入门、遗忘门和输出门,用于控制信息的存储、更新和输出。

- 遗忘门:控制前一时间步的记忆细胞 c{t-1} 是否保留。

ft​=σ(Wf xt​+Uf h{t-1} +bf​)

- 输入门:控制当前输入 xt是否写入记忆细胞。

it​=σ(Wi xt​+Ui h{t-1} +bi​)

c~t = tanh (Wc xt​+Uc h{t-1} +bc​)

- 输出门:控制记忆细胞 ct是否输出到隐藏状态ht。

ot =σ(Wo xt​+Uo h{t-1} +bo​)

ct =ft ⊙ct−1​+it ⊙c~t​

ht =ot ⊙tanh(ct )

2)门控循环单元(GRU)

GRU是LSTM的简化版,通过合并输入门和遗忘门来减少参数数量,从而提高计算效率。GRU包括两个门:更新门和重置门。

- 更新门:控制隐藏状态ht的更新。

zt =σ(Wz xt​+Uzh{t-1} +bz​)

- 重置门:控制前一时间步的隐藏状态h{t-1} 是否重置。

rt =σ(Wr xt​+Ur h{t-1} +br​)

h~t =tanh(Wh xt​+Uh (rt ⊙h{t-1} )+bh​)

ht =(1−zt )⊙h{t-1} +zt⊙h~t​

3 工作机制

RNN通过前向传播和反向传播进行训练和预测。

1)前向传播

前向传播是指将输入序列依次通过RNN的每个时间步,最终得到输出序列。

1.1)初始化隐藏状态:将隐藏状态h0初始化为零或随机值。

1.2)计算隐藏状态和输出:从时间步1到T,依次计算每个时间步的隐藏状态ht和输出 yt。

1.3)保存隐藏状态和输出:将每个时间步的隐藏状态和输出保存下来,用于后续的反向传播。

2)反向传播

反向传播用于计算损失函数的梯度,并更新RNN的参数。由于RNN具有时间步的依赖性,反向传播需要通过时间展开(Unrolling)来计算每个时间步的梯度。

2.1)计算损失函数:根据预测值和真实值计算损失,例如交叉熵损失或均方误差。

2.2)时间展开:将RNN在时间步上的计算展开为一个展开图。

2.3)计算梯度:使用链式法则计算损失函数对每层参数的梯度。

2.4)参数更新:使用梯度下降或其变种(如Adam优化算法)更新每层的权重和偏置。

4 典型应用

RNN在许多领域有广泛的应用,以下是几个主要的应用场景:

自然语言处理(NLP)

- 语言模型:预测句子中下一个词语的概率。

- 机器翻译:将输入语言序列翻译为目标语言序列。

- 文本生成:根据给定的起始文本生成自然语言文本。

语音识别:RNN在语音识别任务中用于将语音信号转换为文本,能够捕捉语音信号中的时序信息,从而提高识别准确率。

时间序列预测:RNN在时间序列预测任务中用于预测未来的数据点,例如使用RNN预测股票价格、天气变化和经济指标等。

5 实现示例

以下是一个使用Python和Keras框架实现的简单RNN,用于文本生成任务:

import numpy as np

import tensorflow as tf

from tensorflow.keras.models import Sequential

from tensorflow.keras.layers import SimpleRNN, Dense

from tensorflow.keras.utils import to_categorical

# 生成示例数据

data = "hello world"

chars = sorted(list(set(data)))

char_to_index = {char: index for index, char in enumerate(chars)}

index_to_char = {index: char for index, char in enumerate(chars)}

X = []

y = []

for i in range(len(data) - 1):

    X.append(char_to_index[data[i]])

    y.append(char_to_index[data[i + 1]])

X = np.array(X).reshape(-1, 1, 1)

y = to_categorical(y, num_classes=len(chars))

# 构建RNN模型

model = Sequential([

    SimpleRNN(50, input_shape=(1, 1), return_sequences=True),

    SimpleRNN(50),

    Dense(len(chars), activation='softmax')

])

# 编译模型

model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

# 训练模型

model.fit(X, y, epochs=100, verbose=2)

# 文本生成函数

def generate_text(model, start_char, num_chars):

    generated = start_char

    for _ in range(num_chars):

        x = np.array([char_to_index[generated[-1]]]).reshape(-1, 1, 1)

        pred = model.predict(x, verbose=0)

        next_char = index_to_char[np.argmax(pred)]

        generated += next_char

    return generated

# 生成文本

print(generate_text(model, 'h', 10))

生成对抗网络(GAN)

GAN由Ian Goodfellow等人在2014年提出的深度学习模型,由生成器和判别器两个网络组成,通过博弈过程生成与真实数据分布相似的新数据。GANs在图像生成、视频生成、文本生成等领域有广泛的应用。

1 网络组成

GANs由两个神经网络组成:生成器(Generator)和判别器(Discriminator),生成器试图生成逼真的数据,而判别器则尝试区分生成的数据和真实数据。两个网络通过一个零和博弈相互对抗,最终生成器能够生成与真实数据难以区分的数据。

1)生成器

生成器接受一个随机噪声向量作为输入,通过一系列非线性变换,输出一个与真实数据分布相似的样本。生成器的目标是最大化判别器对生成样本的误判率。

生成器的目标函数:minG​V(G,D)=Ez∼pz(z) [log(1−D(G(z)))]

2)判别器

判别器接受一个样本作为输入,输出一个表示样本为真实数据的概率。判别器的目标是最大化对真实数据的正确分类率,同时最小化对生成数据的误分类率。

判别器的目标函数:maxD​V(G,D)=Ex∼pdata(x) [logD(x)] + Ez∼pz(z) [log(1−D(G(z)))]

3)GAN的总体目标函数

GAN的总体目标是找到生成器和判别器的纳什均衡点,使得生成器生成的样本与真实数据难以区分。

总体目标函数:minG maxD​V(G,D)=Ex∼pdata(x) [logD(x)]+Ez∼pz(z) [log(1−D(G(z)))]

2 典型网络

GAN的基本结构包括生成器和判别器两个部分。生成器通常是一个深度神经网络,接受随机噪声作为输入,生成与真实数据分布相似的样本。判别器也是一个深度神经网络,接受样本作为输入,输出样本为真实数据的概率。

1)生成器的结构

生成器的输入是一个低维的随机噪声向量,通过一系列的全连接层、卷积层或反卷积层,生成高维的样本。例如,生成图像的生成器通常包括反卷积层和批量归一化层。

2)判别器的结构

判别器的输入是一个样本,通过一系列的卷积层、全连接层和激活函数,输出样本为真实数据的概率。判别器通常使用卷积层和最大池化层来提取特征。

3 训练过程

GAN的训练过程是生成器和判别器交替优化的过程。具体步骤如下:

1)初始化生成器和判别器的参数。

2)训练判别器:

   - 从真实数据分布中采样一个真实样本。

   - 从随机噪声分布中采样一个噪声向量,通过生成器生成一个样本。

   - 计算判别器对真实样本和生成样本的分类损失,并更新判别器的参数。

3)训练生成器:

   - 从随机噪声分布中采样一个噪声向量,通过生成器生成一个样本。

   - 计算判别器对生成样本的分类损失,并更新生成器的参数。

4)重复步骤2和步骤3,直到模型收敛。

4 典型应用

GANs在许多领域都有广泛的应用,包括但不限于以下几个方面:

图像生成:GANs在图像生成方面取得了显著的成功。通过训练GANs,可以生成高质量的图像,如人脸生成、风格迁移(如CycleGAN)、超分辨率图像生成等。

图像修复:GANs可以用于图像修复任务,如去噪、补全缺失部分等。例如使用GANs可以将有缺陷的图像修复为完整的图像。

图像超分辨率:使用GANs可以将低分辨率图像放大为高分辨率图像,同时保持细节和清晰度。例如SRGAN是一种用于超分辨率图像生成的GAN模型。

生成文本:GANs也可以用于文本生成任务,如生成与真实文本相似的句子、段落等。例如TextGAN是一种用于文本生成的GAN模型。

生成视频:GANs可以用于生成连续的视频帧,从而生成与真实视频相似的视频内容。例如MoCoGAN是一种用于生成视频的GAN模型。

5 实现示例

以下是一个使用Python和Keras框架实现的简单GAN,用于生成手写数字图像(MNIST数据集)

import numpy as np

from tensorflow.keras.layers import Input, Dense, Reshape, Flatten, Dropout

from tensorflow.keras.layers import BatchNormalization, Activation, LeakyReLU

from tensorflow.keras.models import Sequential, Model

from tensorflow.keras.optimizers import Adam

from tensorflow.keras.datasets import mnist

# 定义生成器模型

def build_generator():

    model = Sequential()

    model.add(Dense(256, input_dim=100))

    model.add(LeakyReLU(alpha=0.2))

    model.add(BatchNormalization(momentum=0.8))

    model.add(Dense(512))

    model.add(LeakyReLU(alpha=0.2))

    model.add(BatchNormalization(momentum=0.8))

    model.add(Dense(1024))

    model.add(LeakyReLU(alpha=0.2))

    model.add(BatchNormalization(momentum=0.8))

    model.add(Dense(28 * 28 * 1, activation='tanh'))

    model.add(Reshape((28, 28, 1)))

    return model

# 定义判别器模型

def build_discriminator():

    model = Sequential()

    model.add(Flatten(input_shape=(28, 28, 1)))

    model.add(Dense(512))

    model.add(LeakyReLU(alpha=0.2))

    model.add(Dense(256))

    model.add(LeakyReLU(alpha=0.2))

    model.add(Dense(1, activation='sigmoid'))

    return model

# 构建并编译GAN模型

optimizer = Adam(0.0002, 0.5)

discriminator = build_discriminator()

discriminator.compile(loss='binary_crossentropy', optimizer=optimizer, metrics=['accuracy'])

generator = build_generator()

z = Input(shape=(100,))

img = generator(z)

discriminator.trainable = False

valid = discriminator(img)

combined = Model(z, valid)

combined.compile(loss='binary_crossentropy', optimizer=optimizer)

# 训练GAN模型

(X_train, _), (_, _) = mnist.load_data()

X_train = X_train / 127.5 - 1.0

X_train = np.expand_dims(X_train, axis=3)

valid = np.ones((batch_size, 1))

fake = np.zeros((batch_size, 1))

for epoch in range(epochs):

    idx = np.random.randint(0, X_train.shape[0], batch_size)

    imgs = X_train[idx]

    noise = np.random.normal(0, 1, (batch_size, 100))

    gen_imgs = generator.predict(noise)

    d_loss_real = discriminator.train_on_batch(imgs, valid)

    d_loss_fake = discriminator.train_on_batch(gen_imgs, fake)

    d_loss = 0.5 * np.add(d_loss_real, d_loss_fake)

    noise = np.random.normal(0, 1, (batch_size, 100))

    g_loss = combined.train_on_batch(noise, valid)

    if epoch % 100 == 0:

        print(f"{epoch} [D loss: {d_loss[0]}] [D accuracy: {d_loss[1]}] [G loss: {g_loss}]")

Transformer

Transformer模型基于自注意力机制,其主要组件包括多头自注意力机制和前馈神经网络,广泛应用于自然语言处理任务。由于Transformer目前在AI领域的重要地位,后面将单独成文进行全面介绍。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/767310
推荐阅读
相关标签
  

闽ICP备14008679号