赞
踩
偏序关系
TP(True Positive) -- 将正类预测为正类
FN(False Negative) --将负类预测为负类
FP(False Positive) --将负类预测为正类
TN(True Negative) --将正类预测为负类
精确率(我预测了100个样本是对的,但实际上只有99个是真的对的,R=99%):
召回率(一共有100个样本是对的,我预测出了99个,A=99%):
F1值:
生成模型:能够学到联合概率分布P(X,Y)
例如:朴素贝叶斯和隐马尔可夫模型
判别模型:只能学到条件概率分布P(Y|X)或决策函数f(X)
例如:k近邻,SVM,决策树
正则化,先验概率,归纳偏置感觉上是从不同的角度描述同一件事情。
期望损失(期望风险):是随机变量损失函数的期望值/关于模型联合分布的期望损失。
经验损失(经验风险):根据样本数据集对期望损失的估计。
结构损失(结构风险):结构损失是经验损失上加上正则化项。
极大似然估计
所选模型的复杂度比真模型高,对已知数据预测很好,对未知数据预测很差。
对于某项任务T和性能指标P,计算机程序可以通过经验E,在任务T上提高性能P。
当学习器去预测其未遇到过的输入的结果时,会做一些假设(Mitchell, 1980)。而学习算法中归纳偏置则是这些假设的集合。
算法偏置越强,模型归纳能力越强,没有偏置的算法是没有泛化能力的。
参考资料
机器学习 - Mitchell
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。