赞
踩
目录
一、Gradient descent for liner regression - 线性回归:
2."Batch" Gradient Descent - 批量梯度下降法:
二、Matrices and Vectors - 矩阵和向量:
1.Addition and scalar multiplication - 加法和标量乘法:
2.Matrix - Vector multiplication - 矩阵&向量乘法:
3.Matrix-Matrix multiplication - 矩阵&矩阵乘法:
4.Matrix multiplication properties - 矩阵特性:
6.Inverse and transpose - 矩阵逆运算&转置:
我们通过使用Gradient descent algorithm(梯度下降算法)来使得J()(损失函数)最小化或局部最小化。
不断重复进行迭代计算,直到最终结果收敛!
注意:Update and simultaneously
数学推导:
Convex Function:
类似于这样的回归则会有全局且是唯一的最优解。
"Batch": Each step of gredient descent uses all the training examples.
梯度下降算法需要对损失函数求梯度,也就是求导。
批量梯度下降法是最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行梯度的更新。
对损失函数求偏导(对 和 求偏导):
更新值:
不断重复这一步直到算法收敛,也就是对参数不断更新,直到梯度为0。但是,我们的每次迭代更新,都要对所有的m个样本数据进行求和。
如何检测是否已经收敛了呢?
优点:
缺点:
Matrix: Rectangular array of numbers:
Dimension of matrix: number of rows x number of cloumns
Matrix Additon: 对应位置上的元素进行直接相加减(只有同型矩阵才能进行该运算)。
Scalar Multiplication: 常数乘除上矩阵响应位置上的元素,结果所得到的矩阵型式不变。
矩阵&矩阵间的乘法:不满足乘法交换律,满足乘法结合率!
单位矩阵和任何可乘的矩阵相乘,仍然等于该矩阵!
Not all numbers have an inverse.
矩阵和该矩阵的逆相乘等于单位矩阵!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。