赞
踩
线性回归是简单的线性模型,输入是x,网络参数是w和b,输出是连续的y的值
如何把它转化为分类问题?加了sigmoid函数,输出的值不再是一个连续的实数范围,而是一个在[0,1]范围的值,等效于probability,因此可以理解为分类问题
首先之前的线性回归模型,是x到一个y这样的映射,即 f : x → y f:x\rightarrow y f:x→y
但是对于logistic regression(逻辑回归是分类问题)而言,是给x求y=1的这样的probability,θ的参数就是等于[w,b]这样的参数,所以输出的值就变成了0和1
两类问题的本质区别
For regression:
For classification:
对于regression问题,预测值关注的是y,目标是预测的值要与真实值非常接近,方法也是minimize该差距
对于classfication问题,目标是accuracy或F1-score这种指标很高(例如准确率),做法并不需要直接优化accuracy,这一点是classification问题与regression最本质的区别,会用一个general proxy objective(如两个分布的边界或差异,这是一些数学的概念,还可以用cross entropy)
从概念上来说,给出x对y的一个probability,θ参数上给出一个probability和真实给定x得到y的probability,r是real的意思,就是真实的probability,希望这两个分布越近越好
即最终要测试的目标和训练的目标其实是不一样的
为什么训练的目标和测试的目标的目标是不一样的?
也就是说为什么不能直接的maximize accuracy
直接maximize accuracy会有两个问题,accuracy是预测对的数量 / 总的数量(例如有5个数字,预测对了3个accuracy就是3/5=60%)
第一种情况:
一个二分类问题中模型权重调整对准确率没有影响的情况。让我们逐步分析这个问题:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。