赞
踩
LASSO(Least Absolute Shrinkage and Selection Operator)是一种用于线性回归和特征选择的正则化方法。它的基本原理是在损失函数中引入L1正则化项,通过最小化数据拟合误差和正则化项的和来实现模型参数的稀疏化和特征选择。
这种正则化项以模型参数的绝对值之和乘以一个调节参数alpha
的形式出现,促使模型选择少量重要的特征,并将其他特征的系数缩减为零。通过调节alpha
的值,我们可以控制模型的复杂度和特征选择的程度。LASSO的优势在于它能够自动进行特征选择,并产生更简洁和解释性强的模型。
优点:
缺点:
特征选择:
在大数据集和探索性数据分析中,LASSO回归非常有用。它可以帮助从大量的特征中鉴别出对目标变量具有重要影响的特征,从而简化分析过程并提高预测模型的可解释性。
经济学和金融学:
LASSO回归在经济学和金融学中被广泛应用。它可用于识别对经济或金融指标具有显著影响的因素。例如,可以利用LASSO回归来预测房价、股价或其他经济变量。
生物信息学和基因表达分析:
LASSO回归在生物信息学和基因表达分析中扮演重要角色。它可以用于基因选择,帮助确定与生物过程、疾病或其他生物特征相关的基因。
医学研究:
LASSO回归可应用于医学研究的数据分析中。例如,可以使用LASSO回归来预测疾病风险、识别生物标志物或预测治疗结果等。
图像处理和计算机视觉:
LASSO回归在图像处理和计算机视觉领域中发挥作用。它可用于特征提取和图像恢复问题。通过LASSO回归,我们能够提取图像中的重要特征,并减少图像处理过程中的噪声和冗余。
自然语言处理:
LASSO回归也被广泛应用于自然语言处理领域。例如,可以使用LASSO回归来进行文本分类、情感分析和关键词提取等任务。
这里介绍两种模型思路:AIC/BIC模型,交叉验证模型
**AIC(Akaike Information Criterion)**和 **BIC(Bayesian Information Criterion)**是用于模型选择的准则。它们考虑了模型对数据的拟合程度和模型的复杂度,以平衡这两个因素。
AIC 和 BIC 都是基于信息论的概念,通过对模型的对数似然函数值和模型参数数量的加权组合来衡量模型的质量。较小的 AIC 或 BIC 值表示模型对数据的拟合更好且模型较简单。
使用 AIC 或 BIC 拟合模型时,可以根据准则的值选择最佳的模型。在模型选择过程中,通常会计算不同模型的 AIC 或 BIC 值,并选择具有最小值的模型。
交叉验证是一种评估模型性能的技术,用于估计模型在未知数据上的泛化能力。
在交叉验证中,数据集被分成多个子集(通常称为折),其中一部分用于模型的训练,剩余的部分用于模型的验证。这个过程会多次重复,每次使用不同的子集进行训练和验证,以得到对模型性能的更稳定估计。
交叉验证可以帮助评估模型在未知数据上的表现,并选择最合适的模型。常见的交叉验证方法包括 k 折交叉验证
和留一交叉验证
。
import time
import numpy as np
import pandas as pd
from sklearn.linear_model import LassoLarsIC
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import StandardScaler
没下载numpy
和pandas
的同学在终端下载
pip install numpy
pip install pandas
from sklearn.datasets import load_diabetes
X, y = load_diabetes(return_X_y=True, as_frame=True)
X.head()
创建随机特征变量以模拟筛选
rng = np.random.RandomState(42)
n_random_features = 14
X_random = pd.DataFrame(
rng.randn(X.shape[0], n_random_features),
columns=[f"random_{i:02d}" for i in range(n_random_features)],
)
X = pd.concat([X, X_random], axis=1)
X[X.columns[::3]].head()
使用 LassoLarsIC 来拟合 Lasso 模型,并选择具有最小 AIC 值的模型
start_time = time.time()
lasso_lars_ic = make_pipeline(StandardScaler(), LassoLarsIC(criterion="aic")).fit(X, y)
fit_time = time.time() - start_time
# 保存AIC
results = pd.DataFrame(
{
"alphas": lasso_lars_ic[-1].alphas_,
"AIC criterion": lasso_lars_ic[-1].criterion_,
}
).set_index("alphas")
alpha_aic = lasso_lars_ic[-1].alpha_
以同样标准提取 BIC
lasso_lars_ic.set_params(lassolarsic__criterion="bic").fit(X, y)
results["BIC criterion"] = lasso_lars_ic[-1].criterion_
alpha_bic = lasso_lars_ic[-1].alpha_
整合列表
def highlight_min(x):
x_min = x.min()
return ["font-weight: bold" if v == x_min else "" for v in x]
results.style.apply(highlight_min)
ax = results.plot() ax.vlines( alpha_aic, results["AIC criterion"].min(), results["AIC criterion"].max(), label="alpha: AIC estimate", linestyles="--", color="tab:blue", ) ax.vlines( alpha_bic, results["BIC criterion"].min(), results["BIC criterion"].max(), label="alpha: BIC estimate", linestyle="--", color="tab:orange", ) ax.set_xlabel(r"$\alpha$") ax.set_ylabel("criterion") ax.set_xscale("log") ax.legend() _ = ax.set_title( f"Information-criterion for model selection (training time {fit_time:.2f}s)" )
from sklearn.linear_model import LassoCV start_time = time.time() model = make_pipeline(StandardScaler(), LassoCV(cv=20)).fit(X, y) fit_time = time.time() - start_time import matplotlib.pyplot as plt ymin, ymax = 2300, 3800 lasso = model[-1] plt.semilogx(lasso.alphas_, lasso.mse_path_, linestyle=":") plt.plot( lasso.alphas_, lasso.mse_path_.mean(axis=-1), color="black", label="Average across the folds", linewidth=2, ) plt.axvline(lasso.alpha_, linestyle="--", color="black", label="alpha: CV estimate") plt.ylim(ymin, ymax) plt.xlabel(r"$\alpha$") plt.ylabel("Mean square error") plt.legend() _ = plt.title( f"Mean square error on each fold: coordinate descent (train time: {fit_time:.2f}s)" )
该数据框架包含 20 个变量和 322 个大联盟球员的观察结果,根据上一年表现相关的各种统计数据用LASSO模型来预测棒球运动员的薪水
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import Lasso, LassoCV
from sklearn.metrics import mean_squared_error
df = pd.read_csv("Hitters.csv")
df.head()
print(df.info())
#检查缺失行
print(df.isnull().sum())
# 删除缺失行
df = df.dropna()
# 对分类变量进行One-hot编码
dummies = pd.get_dummies(df[['League', 'Division', 'NewLeague']])
print(dummies.info())
print(dummies.head())
# 显示更新后的数据框
print(df)
print(df.dtypes)
# 删除第一列 df = df.drop(df.columns[0], axis=1) # 定义变量 y = df['Salary'] X_numerical = df.drop(['Salary', 'League', 'Division', 'NewLeague'], axis=1).astype('float64') list_numerical = X_numerical.columns # 创建全部特征 X = pd.concat([X_numerical, dummies[['League_N', 'Division_W', 'NewLeague_N']]], axis=1) X.info() # 数据集划分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=10) # 特征缩放 scaler = StandardScaler().fit(X_train[list_numerical]) X_train[list_numerical] = scaler.transform(X_train[list_numerical]) X_test[list_numerical] = scaler.transform(X_test[list_numerical])
# 模型训练和评估 reg = Lasso(alpha=1) reg.fit(X_train, y_train) # 训练集性能 pred_train = reg.predict(X_train) mse_train = mean_squared_error(y_train, pred_train) print('训练集MSE:', round(mse_train, 2)) print('训练集R方:', round(reg.score(X_train, y_train) * 100, 2)) # 测试集性能 pred_test = reg.predict(X_test) mse_test = mean_squared_error(y_test, pred_test) print('测试集MSE:', round(mse_test, 2)) print('测试集R方:', round(reg.score(X_test, y_test) * 100, 2)) # Lasso系数可视化 alphas = np.linspace(0.01, 500, 100) lasso = Lasso(max_iter=10000) coefs = [] for a in alphas: lasso.set_params(alpha=a) lasso.fit(X_train, y_train) coefs.append(lasso.coef_) ax = plt.gca() ax.plot(alphas, coefs) ax.set_xscale('log') plt.axis('tight') plt.xlabel('alpha') plt.ylabel('Standardized Coefficients') plt.title('Lasso coefficients as a function of alpha'); # 训练集MSE: 80571.73 # 训练集R方: 60.43 # 测试集MSE: 134426.33 # 测试集R方: 33.01
这里为了缩短时间,用的五折交叉,一般可以用十折交叉验证
# 使用交叉验证的Lasso模型 model = LassoCV(cv=5, random_state=0, max_iter=10000) model.fit(X_train, y_train) lasso_best = Lasso(alpha=model.alpha_) lasso_best.fit(X_train, y_train) # 显示特征系数 print(list(zip(lasso_best.coef_, X.columns))) print('训练集R方:', round(lasso_best.score(X_train, y_train) * 100, 2)) print('测试集R方:', round(lasso_best.score(X_test, y_test) * 100, 2)) # 最佳模型的均方误差 mse_best = mean_squared_error(y_test, lasso_best.predict(X_test)) print('测试集MSE:', round(mse_best, 2)) # 绘制每个折叠上的均方误差 plt.semilogx(model.alphas_, model.mse_path_, ":") plt.plot( model.alphas_, model.mse_path_.mean(axis=-1), "k", label="Average across the folds", linewidth=2, ) plt.axvline( model.alpha_, linestyle="--", color="k", label="alpha: CV estimate" ) plt.legend() plt.xlabel("alphas") plt.ylabel("Mean square error") plt.title("Mean square error on each fold") plt.axis("tight") plt.ylim(50000, 250000)
Lasso回归是一种用于特征选择和稀疏性建模的线性回归方法。它通过加入L1正则化项来推动部分特征的系数稀疏化为零,从而实现对数据中最重要特征的选择和解释。Lasso回归在高维数据集和具有大量特征的情况下,可以提供简洁且解释性强的模型,并有助于减少过拟合问题。埋个预告,下篇整理L2正则化!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。