赞
踩
优点:
缺点:
优点:
缺点:
线形回归的L1正则化通常称为Lasso回归,它和一般线形回归的区别是在损失函数上增加了一个L1正则化的项,L1正则化的项有一个常数系数alpha来调节损失函数的均方差项和正则化项的权重
线形回归的L2正则化通常称为Ridge回归,它和一般线形回归的区别是在损失函数上增加了一个L2正则化的项,和Lasso回归的区别是Ridge回归的正则化项是L2范数,而Lasso回归的正则化项是L1范数。
优点:
缺点:
决策树算法是一种基于树状结构的监督学习算法,用于分类和回归任务。
ID3 是最早提出的决策树算法,他就是利用信息增益来选择特征的
优点:
缺点:
他是 ID3 的改进版,他不是直接使用信息增益,而是引入“信息增益比”指标作为特征的选择依据。
优点:
缺点:
正则化通常是应用在损失函数中的一种技术,旨在限制模型的复杂性,防止过拟合。正则化通过在损失函数中添加一个正则化项来实现,这个正则化项是模型参数的函数,它会在训练过程中对模型参数进行约束。
f
(
θ
)
=
损失函数
+
正则化项
f\left ( \theta \right ) =损失函数+正则化项
f(θ)=损失函数+正则化项
L1正则化是通过在损失函数中添加模型参数的绝对值之和来实现的
L2正则化是通过在损失函数中添加模型参数的平方之和的开方值来实现的
集成算法是一种将多个弱学习器组合成一个强学习器的技术。通过结合多个模型的预测,集成算法可以提高模型的性能和鲁棒性。
Bagging 的思路是所有基础模型都一致对待,每个基础模型手里都只有一票。然后使用民主投票的方式得到最终的结果。大部分情况下,经过 bagging 得到的结果方差(variance)更小。
具体过程:
优点:
缺点:
Boosting 的核心思路是——挑选精英。
Boosting 和 Bagging 最本质的差别在于他对基础模型不是一致对待的,而是经过不停的考验和筛选来挑选出“精英”,然后给精英更多的投票权,表现不好的基础模型则给较少的投票权,然后综合所有人的投票得到最终结果。大部分情况下,经过 boosting 得到的结果偏差(bias)更小。
具体过程:
优点:
缺点:
优点:
缺点:
**优点:**提供了很高的预测性能,对噪声和异常值相对较稳定。
**缺点:**需要调整多个超参数。
都是梯度提升算法的变种,具有高效性和可扩展性。
优点:
缺点:
优点:
缺点:
支持向量机,一个经久不衰的算法,高准确率,为避免过拟合提供了很好的理论保证,而且就算数据在原特征空间线性不可分,只要给个合适的核函数,它就能运行得很好。
SVM应用领域
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。