赞
踩
Author:AXYZdong
李宏毅《机器学习》系列
参考视频地址:https://www.bilibili.com/video/BV1Ht411g7Ef
参考文档:DataWhale文档
以神经元(neuron)为基本单位,通过神经元之间的互相连接,建立神经网络。
神经元之间有很多不同的连接方式,这样就会产生不同的结构(structure)。
深度(Deep)的理解
Deep = Many hidden layer
矩阵计算(Matrix Operation)
随着层数变多,错误率降低,随之运算量增大,通常都是超过亿万级的计算。对于这样复杂的结构,我们一定不会一个一个的计算,对于亿万级的计算,使用loop循环效率很低。因此,利用矩阵计算(Matrix Operation)提高运算的速度以及效率。
FAQ(Frequently Asked Questions)
对于模型的评估,我们一般采用损失函数来反应模型的好差,所以对于神经网络来说,我们采用交叉熵(cross entropy)函数来对损失进行计算,通过调整参数,让交叉熵误差越来越小。
梯度下降(Gradient Descent): 李宏毅《机器学习》丨3. Gradient Descent(梯度下降)
反向传播(Backpropagation):BP(Back Propagation)神经网络——原理篇
为什么要用深度学习,深层架构带来哪些好处?那是不是隐藏层越多越好?
Datawhale组队学习,李宏毅《机器学习》Task4. Deep Learning(深度学习)。主要包括深度学习发展历史、深度学习三个步骤:神经网络 模型评估 选择最优函数、深度学习思考。
如果以上内容有任何错误或者不准确的地方,欢迎在下面
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。