赞
踩
作者:禅与计算机程序设计艺术
在机器学习领域中,特征选择(feature selection)是指在模型训练前对数据集进行分析,选择其中有助于预测目标变量或影响模型性能的特征,去除不相关或冗余的特征,提升模型的泛化能力。而Lasso回归是一种很流行的用于特征选择的方法之一。
Lasso回归(又称LASSO,least absolute shrinkage and selection operator)是一种线性模型中的特征选择方法。它是在LARS(least angle regression)基础上发展起来的,Lasso是一个岭回归(ridge regression)的特例。当系数估计值很小时,Lasso可以看做是岭回归的逆过程。Lasso可以防止过拟合,使得估计出的模型具有较低的复杂度。另外,Lasso还可以用来识别系数为零的特征,从而可以删除掉这些特征。此外,通过设置一个阈值参数λ,Lasso还可以得到稀疏向量,只有重要的特征才会被保留。因此,Lasso适合处理具有大量特征的数据集,且在空间中存在一些冗余和噪声的情况。
本文将首先对Lasso的原理及其与其他特征选择方法的比较进行阐述,然后讨论Lasso优点、缺点以及应用场景,最后给出了代码实例。
概念:在模型训练前对数据集进行分析,选择其中有助于预测目标变量或影响模型性能的特征,去除不相关或冗余的特征,提升模型的泛化能力。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。