当前位置:   article > 正文

DNN、CNN、RNN、LSTM的区别,最全最详细解答_dnn和cnn

dnn和cnn

**

DNN、CNN、RNN、LSTM的区别,最全最详细解答

**
神经网络的变种目前有,
如误差反向传播(Back Propagation,BP)神经网路、
概率神经网络、
RNN-循环神经网络
DNN-深度神经网络
CNN-卷积神经网络(-适用于图像识别)、
LSTM-时间递归神经网络(-适用于语音识别)等。
但最简单且原汁原味的神经网络则是
多层感知器(Muti-Layer Perception ,MLP)。

MLP神经网络的结构和原理
最典型的MLP包括包括三层:输入层、隐层和输出层,MLP神经网络不同层之间是全连接的(全连接的意思就是:上一层的任何一个神经元与下一层的所有神经元都有连接)。
在这里插入图片描述
在这里插入图片描述
由此可知,神经网络主要有三个基本要素:权重、偏置和激活函数

权重:神经元之间的连接强度由权重表示,权重的大小表示可能性的大小

偏置:偏置的设置是为了正确分类样本,是模型中一个重要的参数,即保证通过输入算出的输出值不能随便激活。

激活函数:起非线性映射的作用,其可将神经元的输出幅度限制在一定范围内,一般限制在(-1~1)或(0~1)之间。最常用的激活函数是Sigmoid函数,其可将(-∞,+∞)的数映射到(0~1)的范围内。

MLP的最经典例子就是

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/116468?site
推荐阅读
相关标签
  

闽ICP备14008679号