当前位置:   article > 正文

DW李宏毅机器学习Task4_using parallel computing techniques to speed up ma

using parallel computing techniques to speed up matrix operation

1、Deep Learning 的历史

  • 1958:Perceptron(linear model)
  • 1969:Perceptron has limitation
  • 1980s:Multi-layer perceptron
    (Do not have significant difference from DNN today)
  • 1986:Backpropagation
    (Usually more than 3 hidden layers is not helpful)
  • 1989:1 hidden layer is “good enough”, why deep?
  • 2006:RBM initialization(breakthrough
  • 2009:GPU
  • 2011:Start to be popular in speech recognition
  • 2012:win ILSVRC image competition

2、Deep Learning的三个步骤

Step1:define a set of function——Neural Network

在这里插入图片描述
最常见的connection method:Fully Connet Feedforward Network
在这里插入图片描述
一个Network就是一个function
在这里插入图片描述
在这里插入图片描述
layer1的neuron会与layer2的每一个neuron相连接,因此称为Fully Connet Network;因为整个过程由layer1传到layer2,由后往前传,因此称为Feedforward Network。
Deep = Many hidden layers
通过矩阵形式计算:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Using parallel computing techniques to speed up matrix operation,写成矩阵运算的好处在于可以使用GPU加速,比用CPU运算更快。
在这里插入图片描述
You need to decide the network structure to let a good function in your function set.

Q&A:
1、需要多少层,以及每层有多少神经,需要根据试验误差,以及经验来决定
2、the structure can be automatically determined. E.g. Evolutionary Artificial Neural Networks
3、we can design the network structure. E.g. Convolutional Neural Network(CNN)

Step2:goodness of function

在这里插入图片描述
Cross Entropy 越小越好
For all training data,计算total loss
在这里插入图片描述
最小化total loss,利用gradient descent。
在这里插入图片描述
Backpropagation
在这里插入图片描述
Ref:http://speech.ee.ntu.edu.tw/~tlkagk/courses/MLDS_2015_2/Lecture/DNN%20backprop.ecm.mp4/index.html
为什么要使用deep learning,deeper is Better?
在这里插入图片描述

Step3:pick the best function

参考
https://www.bilibili.com/video/BV1Ht411g7Ef

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/537481
推荐阅读
相关标签
  

闽ICP备14008679号