当前位置:   article > 正文

Deep Learning and Backpropagation_"1 hidden layer is \"good enough\",why deep?"

"1 hidden layer is \"good enough\",why deep?"

一、Deep learning attracts lots of attention.

在这里插入图片描述
Deep learning trends at Google. Source: SIGMOD 2016/Jeff Dean

Ups and downs of Deep Learning

1958: Perceptron (linear model)
1969: Perceptron has limitation
1980s: Multi-layer perceptron
Do not have significant difference from DNN today
1986: Backpropagation
Usually more than 3 hidden layers is not helpful
1989: 1 hidden layer is “good enough”, why deep?
2006: RBM initialization
2009: GPU
2011: Start to be popular in speech recognition
2012: win ILSVRC image competition
2015.2: Image recognition surpassing human-level performance
2016.3: Alpha GO beats Lee Sedol
2016.10: Speech recognition system as good as humans

Three Steps for Deep Learning

在这里插入图片描述

Neural Network

在这里插入图片描述
Network parameter θ: all the weights and biases in the “neurons” 。

Fully Connect Feedforward Network:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Deep = Many hidden layers:
在这里插入图片描述
Matrix Operation:
在这里插入图片描述
Neural Network :

在这里插入图片描述

Output Layer as Multi-Class Classifier

在这里插入图片描述
Example Application–Handwriting Digit Recognition
在这里插入图片描述
ou need to decide the network structure to let a good function in your function set.

FAQ

在这里插入图片描述
Q: How many layers? How many neurons for each layer?
在这里插入图片描述
Q: Can the structure be automatically determined?
E.g. Evolutionary Artificial Neural Networks
Q: Can we design the network structure?
在这里插入图片描述

二、Step 2: goodness of function

Loss for an Example:

在这里插入图片描述

Total Loss:

在这里插入图片描述
在这里插入图片描述
Find a function in function set that minimizes total loss L.
Find the network parameters θ^∗ that minimize total loss L.

三、Step 3: pick the best function

Gradient Descent

在这里插入图片描述
在这里插入图片描述

Backpropagation

Backpropagation: an efficient way to compute ∂L∕∂w in neural network.
在这里插入图片描述

四、Backpropagation

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Backpropagation – Forward pass

Compute ∂z∕∂w for all parameters
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Backpropagation – Summary

在这里插入图片描述

总结

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/537479
推荐阅读
相关标签
  

闽ICP备14008679号