当前位置:   article > 正文

python统计分析——使用AIC进行模型选择_aic 模型选择

aic 模型选择

参考资料:用python动手学统计学

1、导入库

  1. # 导入库
  2. # 用于数值计算的库
  3. import numpy as np
  4. import pandas as pd
  5. import scipy as sp
  6. from scipy import stats
  7. # 用于绘图的库
  8. import matplotlib.pyplot as plt
  9. import seaborn as sns
  10. sns.set()
  11. # 用于估计统计模型的库
  12. import statsmodels.formula.api as smf
  13. import statsmodels.api as sm

2、数据准备

  1. data=pd.DataFrame({
  2. 'beer':np.array([45.3, 59.3, 40.4, 38. , 37. , 40.9, 60.2, 63.3, 51.1, 44.9, 47. ,
  3. 53.2, 43.5, 53.2, 37.4, 59.9, 41.5, 75.1, 55.6, 57.2, 46.5, 35.8,
  4. 51.9, 38.2, 66. , 55.3, 55.3, 43.3, 70.5, 38.8]),
  5. 'temp':np.array([20.5, 25. , 10. , 26.9, 15.8, 4.2, 13.5, 26. , 23.3, 8.5, 26.2,
  6. 19.1, 24.3, 23.3, 8.4, 23.5, 13.9, 35.5, 27.2, 20.5, 10.2, 20.5,
  7. 21.6, 7.9, 42.2, 23.9, 36.9, 8.9, 36.4, 6.4])
  8. })
  9. data.head()

4、建立线性模型

  1. # 利用普通最小二乘法(ordinary least squares)拟合线性模型
  2. lm=smf.ols(formula="beer ~ temp",data=data).fit()
  3. # 查看模型的AIC值
  4. lm.aic

        现在模型里只有temp(气温)这一个解释变量,我们不妨对比一下它和空模型的AIC。下面建立一个空模型,当没有解释变量时,定位“beer~1”。

  1. # 设置空模型
  2. null_model=smf.ols("beer ~ 1",data=data).fit()
  3. # 查看空模型的AIC值
  4. null_model.aic

由两个拟合结果可以看出,含有解释变量的模型的AIC值更小,所以认为“包含结实变量(气温)的模型预测精度更高”,即用来预测啤酒销售额的模型应该考虑气温因素。

5、分步计算AIC值,已加深印象。

AIC的计算式为:

AIC=-2×(最大对数似然-参与估计的参数个数)

接下来只需要知道参与估计的参数个数即可。这个值没有包含在模型里,但我们可以先找到解释变量的个数:

事实上,截距(β0)也参与了估计,所以上面的结果加上1就是参与估计的参数个数。最终AIC计算如下:

注:在确定参与估计的参数个数方面也有很多做法。有时也会算上多余参数(这种情况下AIC就是210.909)。R语言等工具有时也会各处多余参数的个数。

        AIC的核心是各个AIC之间的对比,其绝对值并不重要。通过相同做法计算出来的AIC的大小关系是不变的,只要不更换做法,就不会影响模型选择,就意味着我们要避免跨工具计算AIC。

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/250486
推荐阅读
相关标签
  

闽ICP备14008679号