当前位置:   article > 正文

【人工智能】九种神经网络模型

【人工智能】九种神经网络模型

56596f95cf444193892bf8a1bd6252dc.gif

神经网络就像人工智能的大脑,旨在像人类一样学习和解决问题。在本博客中,我们深入探讨神经网络的基础知识及其类型,探索它们的运作方式。

1. 人工神经网络简介

人工神经网络 (ANN) 是人工智能深度学习的一个基本概念。它们在处理传统机器学习算法难以处理的复杂应用场景方面至关重要。以下是神经网络的工作原理及其组成部分的概述:

af3b6e67736b4adfacdbc5f6b419eea6.png

1.1 神经网络的工作原理

1.1.1 受生物学启发

ANN 的灵感来自人类大脑中的生物神经元。正如神经元在特定条件下激活以触发身体动作一样,ANN 中的人工神经元也会根据输入数据激活。

1.1.2 ANN 的结构

ANN 由多层相互连接的人工神经元组成。这些神经元被组织成层,每层都使用激活函数执行特定计算,以决定将哪些信号传递到下一层。

1.1.3 训练过程

在训练过程中,ANN 会调整称为权重的内部参数。这些权重最初是随机的,并通过称为反向传播的过程进行优化,在此过程中,网络会学习最小化预测输出和实际输出之间的差异(损失函数)。

1.2 神经网络的组成部分

  • 权重:与输入相乘的数值,在训练期间进行调整以最小化误差。
  • 激活函数:根据神经元的输入确定是否应该激活(“激发”)该神经元,引入对复杂映射至关重要的非线性。

1.3 神经网络的层数

  • 输入层:接收输入数据并表示输入向量的维度。
  • 隐藏层:输入和输出之间的中间层,使用加权输入和激活函数执行计算。
  • 输出层:经过隐藏层处理后产生神经网络的最终输出。

神经网络是解决复杂问题的强大工具。它们可以学习和适应数据,并且在各个行业都有广泛的应用。对于任何想要深化人工智能和深度学习技能的人来说,它们都是必不可少的。

4404fb5237db4ca295c87e04306f9444.png

2. 神经网络的类型

目前有许多类型的神经网络可用或可能处于开发阶段。它们可以根据以下特点进行分类:

  • 结构
  • 数据流
  • 使用的神经元及其密度
  • 层及其深度激活过滤器

356cfaf12e9b408ca29c8ec0812e8a59.png

现在,让我们讨论一下不同类型的 ANN(人工神经网络)

A. 感知器

 

da970aec31d077ab015bbaa6f7909adc.jpeg

感知器

感知器模型由 Minsky 和 ​​Papert 开发,是最简单、最早的神经元模型之一。作为神经网络的基本单元,它通过计算来检测输入数据中的特征或模式,是机器学习的基础工具。

功能:
感知器接受加权输入并应用激活函数来产生输出,即最终结果。
它也被称为阈值逻辑单元 (TLU),突出了其在根据输入数据做出二元决策方面的作用。

感知器是一种主要用于二元分类任务的监督学习算法。它通过在输入空间中定义超平面来区分两个类别。该超平面在数学上由以下公式表示:

w⋅x+b=0

这里,w 表示权重向量,x 表示输入向量,b 表示偏差项。该等式描述了感知器如何根据学习到的权重和偏差将输入空间划分为不同的类别。

感知器的优点
感知器可以实现像 AND、OR 或 NAND 这样的逻辑门。

感知器的缺点
感知器只能学习线性可分问题,例如布尔AND问题。对于非线性问题,例如布尔XOR问题,它不起作用。

B. 前馈神经网络

前馈神经网络 (FFNN) 是神经网络架构的基础,特别是在传统机器学习算法面临局限性的应用中。 

它们通过单向数据流促进简单分类、面部识别计算机视觉语音识别等任务的完成。

  • 结构:FFNN 由输入层和输出层以及中间的可选隐藏层组成。输入数据从输入节点开始通过网络,经过隐藏层(如果存在),最终到达输出节点。
  • 激活和传播:这些网络通过前向传播运行,其中数据沿一个方向移动而没有反馈回路。激活函数(如阶跃函数)根据加权输入确定神经元是否激发。例如,如果神经元的输入超过阈值(通常为 0),则输出 1;如果输入低于阈值,则输出 -1。

FFNN 能够有效处理噪声数据,并且相对容易实现,使其成为各种 AI 应用中的多功能工具。

前馈神经网络的优点

  1. 不太复杂,易于设计和维护
  2. 快速、快捷 [单向传播]
  3. 对噪声数据高度敏感

前馈神经网络的缺点

  1. 由于缺乏密集层和反向传播,无法用于深度学习

C. 多层感知器

多层感知器 (MLP) 是复杂神经网络的入口点,旨在处理各个领域的复杂任务,例如:

  • 语音识别
  • 机器翻译
  • 复杂分类任务

MLP 的特点是其多层结构,其中输入数据穿过相互连接的人工神经元层。 

该架构包括输入层和输出层以及多个隐藏层(通常为三层或更多),形成完全连接的神经网络。

运作

  • 双向传播:利用前向传播(用于计算输出)和后向传播(用于根据错误调整权重)。
  • 权重调整:在反向传播期间,通过比较预测输出与实际训练输入来优化权重以最小化预测误差。
  • 激活函数:非线性函数应用于神经元的加权输入,增强网络对复杂关系进行建模的能力。输出层通常使用 softmax 激活来进行多类分类任务。

多层感知器的优势

  1. 用于深度学习(由于存在密集的全连接层和反向传播) 

多层感知器的缺点

  1. 设计和维护相对复杂
  2. 相对较慢(取决于隐藏层的数量)

D. 卷积神经网络

卷积神经网络 (CNN) 专门用于以下任务:

CNN 与标准神经网络的不同之处在于,它采用了三维排列的神经元,这对于处理视觉数据特别有效。其关键组成部分包括:

结构

  • 卷积层:初始层处理输入数据的局部区域,使用过滤器从图像中提取边缘和纹理等特征。
  • 池化层:遵循卷积来减少空间维度,捕获必要信息,同时降低计算复杂度。
  • 全连接层:结束网络,使用双向传播根据提取的特征对图像进行分类。

运作

  • 特征提取:CNN 利用过滤器从图像中提取特征,从而实现对模式和对象的稳健识别。
  • 激活函数:整流线性单元(ReLU)在卷积层中很常见,用于引入非线性并增强模型灵活性。
  • 卷积层的分类:输出通过具有非线性激活函数(如 softmax)的全连接层进行处理,以进行多类分类。

卷积神经网络的优点

  1. 用于参数较少的深度学习
  2. 与全连接层相比,需要学习的参数更少

卷积神经网络的缺点

  • 设计和维护相对复杂
  • 相对较慢[取决于隐藏层的数量]

E. 径向基函数神经网络

620cad2f4a6c4e9a95147a944aafe038.png

径向基函数网络由输入层和随后的 RBF 神经元以及输出层组成,输出层中的节点与每个类别相对应。在分类过程中,输入与训练集数据点的相似性(每个神经元存储一个原型)决定了分类。

对新的 n 维输入向量进行分类时:

每个神经元计算输入和其原型之间的欧几里得距离。

例如,如果我们有 A 类和 B 类,则输入比 B 类更接近 A 类原型,从而导致分类为 A 类。

每个 RBF 神经元通过输出 0 到 1 之间的值来测量相似度。当输入与原型匹配时,响应最大 (1),随着距离增加,响应呈指数减小 (趋向于 0)。此响应形成 RBF 神经元特有的钟形曲线模式。

F. 循环神经网络(RNN)

e94b797a152941ec9c18825be7faf960.png

 

循环神经网络的应用

  • 文本处理,如自动建议、语法检查等。
  • 文本到语音处理
  • 图片标记器
  • 情绪分析
  • 翻译

旨在保存层的输出,循环神经网络会反馈到输入以帮助预测层的结果。第一层通常是前馈神经网络,后面是循环神经网络层,其中记忆函数会记住前一个时间步骤中的一些信息。在这种情况下,会实现前向传播。它存储未来使用所需的信息。如果预测错误,则使用学习率进行微小更改。因此,在反向传播过程中,它会逐渐增加以做出正确的预测。

循环神经网络的优势

  1. 模型顺序数据的优点之一是可以假定每个样本都依赖于历史样本。  
  2. 与卷积层一起使用以扩展像素有效性。

循环神经网络的缺点

  1. 梯度消失和爆炸问题 
  2. 训练循环神经网络可能是一项艰巨的任务 
  3. 使用 ReLU 作为激活函数很难处理长序列数据。

G. LSTM(长短期记忆)网络

LSTM 网络是一种 RNN 的改进网络,除了标准单元外还使用特殊单元。LSTM 单元包括一个“记忆单元”,可以长时间将信息保存在记忆中。一组门用于控制信息何时进入记忆、何时输出以及何时被遗忘。门有三种类型,即输入门、输出门和遗忘门。输入门决定上一个样本中有多少信息将保留在记忆中;输出门调节传递到下一层的数据量,遗忘门控制存储记忆的撕裂率。这种架构让它们能够学习长期依赖关系

这是 LSTM 单元的实现之一,还存在许多其他架构。

34fcef663d31412f85292ed38fb8b0fe.png

H. 序列到序列模型

 2f1437cd680f44769f85b373a299b98d.png

序列到序列模型由两个循环神经网络组成。这里,存在一个处理输入的编码器和一个处理输出的解码器。编码器和解码器同时工作——使用相同的参数或不同的参数。与实际的 RNN 相反,该模型特别适用于输入数据的长度等于输出数据的长度的情况。虽然它们具有与 RNN 相似的优点和局限性,但这些模型通常主要应用于聊天机器人、机器翻译和问答系统。

I. 模块化神经网络 

模块化神经网络的应用

  1. 股票市场预测系统
  2. 用于字符识别的自适应 MNN 
  3. 高级输入数据的压缩

模块化神经网络有许多不同的网络,它们独立运作并执行子任务。不同的网络在计算过程中实际上并不相互交互或相互发送信号。它们独立工作以实现输出。

83d4f5c6581e4b6db0a2c9cf66cd91e2.png

因此,通过将大型复杂的计算过程分解为独立组件,可以显著加快计算速度。由于网络之间不相互交互甚至不相互连接,因此计算速度得以提高。

模块化神经网络的优势

  1. 高效的
  2. 独立训练
  3. 鲁棒性

模块化神经网络的缺点

  • 移动目标问题

3. 结论

了解不同的神经网络类型,从感知器等基础模型到卷积和径向基函数网络等高级架构,对于掌握人工智能和机器学习至关重要。

bda988d4d7d648598d2561043cdacc34.png

4. 常见问题解答

4.1 什么是神经网络及其类型?

神经网络是机器学习中使用的人工网络,其工作方式与人类神经系统相似。许多事物以各种方式连接,以使神经网络模仿和像人脑一样工作。神经网络主要用于计算模型。

4.2 什么是CNN和DNN?

深度神经网络 (DNN) 是一种人工神经网络 (ANN),输入层和输出层之间有多层。它们可以对复杂的非线性关系进行建模。卷积神经网络 (CNN) 是另一种 DNN,可以对多变量信号中的时间和空间相关性进行建模。

4.3 CNN 和 Ann 有何不同?

CNN 是一种特殊的 ANN,具有一层或多层卷积单元。ANN 类涵盖多种架构,包括卷积神经网络 (CNN)、循环神经网络 (RNN)(例如 LSTM 和 GRU)、自动编码器和深度信念网络。

4.4 为什么CNN比MLP更好?

多层感知器 (MLP) 非常适合 MNIST,因为它是一个更简单、更直接的数据集,但在计算机视觉的实际应用方面,特别是与出色的 CNN 相比,它落后了,尤其是图像分类。

 

 

 

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/神奇cpp/article/detail/1018738
推荐阅读
相关标签
  

闽ICP备14008679号