赞
踩
熵越大,不确定性越大
熵: H ( X ) = E [ − l o g p k ] = − ∑ k p k log p k H(X)=E[-log{p_k}]=-\sum_k{p_k \log{p_k}} H(X)=E[−logpk]=−∑kpklogpk
信息增益,就是给定条件前的熵减去给定条件后的熵,看熵减少多少
条件熵: H ( X ∣ Y ) = ∑ y p Y ( y ) H ( X ∣ Y = y ) H(X|Y)=\sum_y{p_Y(y) H(X|Y=y)} H(X∣Y)=∑ypY(y)H(X∣Y=y)
信息增益: g ( X , Y ) = H ( X ) − H ( X ∣ Y ) g(X,Y)=H(X)-H(X|Y) g(X,Y)=H(X)−H(X∣Y)
使用信息增益容易选择特征值多的那些特征,改进成信息增益比
信息增益比: g r ( X , Y ) = H ( X ) − H ( X ∣ Y ) H ( X ) g_r(X,Y)=\frac{H(X)-H(X|Y)}{H(X)} gr(X,Y)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。