赞
踩
目录
即:信息消除了多少不确定性!
A中信息的不确定性就高于B中信息的不确定性。
信息熵是不确定性的标志,如果一个随机变量的信息熵越大,其不确定性也越高。
定义x是离散随机变量,其概率密度函数为p(x),它的信息熵(entropy)定义为
B在的信息熵=
\(\large \1* - {\rm{lo}}{{\rm{g}}_2}0.5 + 1* - {\rm{lo}}{{\rm{g}}_2}0.5 = 1\\)
“我很爱武汉”的信息熵=
\(\large \ - [(0.2{\log _2}0.2) + (0.2{\log _2}0.2) + (0.2{\log _2}0.2) + (0.2{\log _2}0.2) + (0.2{\log _2}0.2)] = 2.32193\\)
“我很爱爱爱武汉”的信息熵=
\(\large \ - [(0.429{\log _2}0.429) + (0.143{\log _2}0.143) + (0.143{\log _2}0.143) + (0.143{\log _2}0.143) + (0.143{\log _2}0.143)] = 2.12809\\)
上面两句中,表达了相同的意思,但是第一句话篇幅少,信息熵高。
法语:3.98bit 西班牙语:4.01bit 英语:4.03bit
俄语:4.35bit 中文:9.6bit
也就是说,在表达相同的意思下,中文所需的篇幅最少,法语所需的篇幅最多。
同时,若一条信息的含义越难预判,则信息熵则越高。
另外一点,假定X和Y是两个离散随机变量,其联合分布为P(x,y),边缘分布分别为P(X)与P(Y),其联合熵为
随机变量X与Y的互信息公式为
若X,Y相互独立,则:
若X,Y相关性较高,则越大于零。
例如:"机器学习是一个交叉领域学科,涉及信息处理、统计学、计算机科学等多个学科。"
经过分词后,“机器”与“学习”会被分开。
取统计词频的方法计算分词后中每个词的概率。若两个相邻词的互信息I(X,Y)大于给定的阈值,认为是新词出现。即“机器学习”这个词会出现。
当然,我们这里只是一个句子,在文本处理的过程中,我们面对的可能是一篇文章。
这篇文章中对于熵权法的应用解释的非常清楚,也有例子。
指标权重确定方法之熵权法_moon的博客-CSDN博客_熵权法求权重
对于新词的出现,是否可以使用Jaccard Index,其公式为
注意,我们是剔除“的”、“了”、“是”、“我”等高频使用字词?
设置阈值,两次词有连接的,设置为1;没有连接的,设置为0。
这个的区别就是是否取logx函数
1.公式中log的底是多少,是e还是2,还是10?
2.用log处理的好处是什么?
3.信息熵还可以运用到什么地方?
科学证明中文就是最最最高级的!【硬核科普】信息熵是什么_哔哩哔哩_bilibili
信息熵极低的文字会是什么样子?信息熵极高的文字又是什么样子? - 知乎
许峰. 基于深度学习的网络舆情识别研究[D].北京邮电大学,2019.
赞
踩
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。