赞
踩
作者: 贺旭
2019暑期“实证研究方法与经典论文”专题班-连玉君-江艇主讲
本篇推文将介绍 AIC,BIC 等信息准则以及在 Stata 中的相关命令。
该小节将介绍 AIC , BIC 等信息准则以及在 Stata 中的相关命令
经常的,在建模过程中,会有一些备选解释变量,选择不同的变量组合会得到不同的模型,而信息准则就是刻画这些模型相对于 “ 真实模型 ” 的信息损失。AIC, BIC, HQIC 等信息准则的计算公式为:
赤池信息量 (akaike information criterion):
A I C = − 2 l n ( L ) + 2 k AIC=-2 ln(L) + 2 k AIC=−2ln(L)+2k
贝叶斯信息量 (bayesian information criterion):
B I C = − 2 l n ( L ) + l n ( n ) ∗ k BIC=-2 ln(L) + ln(n)*k BIC=−2ln(L)+ln(n)∗k
汉南 - 奎因信息量 (quinn criterion):
H Q = − 2 l n ( L ) + l n ( l n ( n ) ) ∗ k HQ=-2 ln(L) + ln(ln(n))*k HQ=−2ln(L)+ln(ln(n))∗k
其中 : L L L 是该模型下的最大似然, n n n 是数据数量, k k k 是模型的变量个数。
在模型拟合时,增加参数可使得似然概率增大,但是却引入了额外的变量,因此 AIC 和 BIC 都在目标式中添加了模型参数个数的惩罚项,也就是第二项。当 n ≥ 8 n≥8 n≥8 时, l n ( n ) ∗ k ≥ 2 k ln(n)*k≥2k ln(n)∗k≥2k,所以,BIC 相比 AIC 在大数据量时对模型参数惩罚得更多,导致 BIC 更倾向于选择参数少的简单模型。
在估计完模型后用,用命令 estat ic
来获得模型的 AIC,BIC , 例如 :
. sysuse auto ///载入数据
. regress price headroom trunk length mpg ///利用数据估计模型
. estat ic ///获得模型地AIC和BIC
结果为
Akaike's information criterion and Bayesian information criterion
-----------------------------------------------------------------------------
Model | Obs ll(null) ll(model) df AIC BIC
-------------+------
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。