赞
踩
具备找函数的能力 look for function
-1-回归: 函数输出一个标量(相当于回答填空题)
Regression:The function outputs a scalar
-2-分类:给定选项(类),函数输出正确的选项(相当于回答选择题)
Classification: Given options (classes), the function outputs the correct one
比如线性模型:y=b+wx
y:要预测的未知量
x:已知量 feature
w(weight)和b(bias):未知的参数,从数据中学习
Loss is a function of parameters 目的是表示出预测值和实际值之间的差距,是绝对值
目的:找出最好的一组w和b使Loss的值最小
方法:Gradient Descent
步骤:
1.先找出w使Loss的值最小
2.随机选取一个值w0,作为w的初始值
3.在w0处计算微分(或者斜率) Loss是纵轴,w是横轴
4.Loss减少幅度的影响因素
(1)斜率的绝对值越大,幅度越大
(2)人为规定的η值——学习速率,越大则学习越快,Loss减少越快(在模型训练的连续过程中,调节的"旋钮"叫做 hyperparameter 超参数)
5.按照以上步骤,迭代更新w,直到斜率为0
6.找出b使Loss的值最小,分开算
7.实际预测时会增加x的天数以减小Loss
线性模型有其局限性 Model bias ,数据不是一直单调递增或递减的,是有波动的
所有的红色折线都可以看成一个常数+一系列的和
用Sigmoid Function(蓝色曲线)逼近
改变w、b、c的值来改变Sigmoid Function,w改变斜率,b改变截距(左右移动),c改变height(高度)
把所有式子加起来就得到y
接下来用矩阵来简化计算,将加起来的式子展开来看
先看括号里面的,用x乘以wij再加上b
i表示sigmoid函数的数量
j表示特征的数量
用r表示b+wx
最后再用向量来表示矩阵
W、b、cT、b均是未知的参数,统一用模型参数θ来表示
目的:找出最好的一组θ使Loss的值最小
步骤:
用Rectified Linear Unit(ReLU)来表示:c max(0,b +wx1)
Max和sigmoid都是激活函数
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。