赞
踩
本文将从什么是CNN?什么是RNN?什么是LSTM?什么是Transformer?四个问题,简单介绍神经网络结构。
神经网络结构
卷积神经网络(CNN):通过卷积和池化操作有效地处理高维图像数据,降低计算复杂度,并提取关键特征进行识别和分类。
卷积神经网络(CNN)
使用一个过滤器(卷积核)来过滤图像的各个小区域,从而得到这些小区域的特征值
原始是20×20的,进行下采样,采样为10×10,从而得到2×2大小的特征图
全连接层
LeNet-5:被誉为卷积神经网络的“Hello World”,是图灵奖获得者Yann LeCun(杨立昆)在1998年提出的CNN算法,用来解决手写识别的问题。
LeNet-5通过引入卷积层、池化层和全连接层等关键组件,构建了一个高效且强大的图像识别网络,为后续卷积神经网络的发展奠定了基础。
输入层-卷积层-池化层-卷积层-池化层-卷积层-全连接层-输出层
循环神经网络(RNN):一种能处理序列数据并存储历史信息的神经网络,通过利用先前的预测作为上下文信号,对即将发生的事件做出更明智的决策。
循环神经网络(RNN)
对句子进行分词
前面所有的输入都对后续的输出产生了影响
输出结果:Asking for the time
(1)处理数据
(2)实际应用
长短期记忆网络(LSTM):一种特殊的循环神经网络,通过引入内存块和门控机制来解决梯度消失问题,从而更有效地处理和记忆长期依赖信息。(RNN的优化算法)
长短期记忆网络(LSTM)
LSTM的细胞结构和运算
由一个sigmoid激活函数和一个tanh激活函数组成。sigmoid函数决定哪些信息是重要的,而tanh函数则生成新的候选信息。
输入门(sigmoid激活函数 + tanh激活函数)
遗忘门仅由一个sigmoid激活函数组成。
sigmoid激活函数(区间0~1)
遗忘门(sigmoid激活函数)
输出门同样由一个sigmoid激活函数和一个tanh激活函数组成。sigmoid函数决定哪些信息应该被输出,而tanh函数则处理记忆单元的状态以准备输出。
输出门(sigmoid激活函数 + tanh激活函数)
(1)机器翻译
应用描述:
关键组件:
流程:
优化:
(2)情感分析
应用描述:
关键组件:
流程:
优化:
Transformer:一种基于自注意力机制的神经网络结构,通过并行计算和多层特征抽取,有效解决了长序列依赖问题,实现了在自然语言处理等领域的突破。
由输入部分输入输出嵌入与位置编码)、多层编码器、多层解码器以及输出部分(输出线性层与Softmax)四大部分组成。
Transformer架构
输入部分:
编码器部分:
解码器部分:
输出部分:
Transformer工作原理
详情了解看这篇:神经网络算法 —— 一文搞懂Transformer !!_神经网络和transformer-CSDN博客
BERT是一种基于Transformer的预训练语言模型,它的最大创新之处在于引入了双向Transformer编码器,这使得模型可以同时考虑输入序列的前后上下文信息。
BERT架构
1. 输入层(Embedding):
2. 编码层(Transformer Encoder):
3. 输出层(Pre-trained Task-specific Layers):
GPT也是一种基于Transformer的预训练语言模型,它的最大创新之处在于使用了单向Transformer编码器,这使得模型可以更好地捕捉输入序列的上下文信息。
GPT架构
1. 输入层(Input Embedding):
2. 编码层(Transformer Encoder):
3. 输出层(Output Linear and Softmax):
参考:架构师带你玩转AI
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。