当前位置:   article > 正文

数学建模:评价与决策 - 2 TOPSIS法_信息熵值 效用值

信息熵值 效用值

目录

步骤

例题:

将原始矩阵正向化

 正向化矩阵标准化

计算得分并归一化

熵权法确定权重对topsis改进

熵权法的计算步骤

判断正向化、标准化后矩阵是否有负数

 计算每列指标中各样本的概率

计算信息熵、信息效用值

 熵权法的原理

信息量

 信息熵


步骤

例题:

 

将原始矩阵正向化

指标类型:

 指标正向化:将所有的指标转化为极大型(用到了的话,在论文中要提到)

极小型的正向化

中间型指标

区间型

 正向化矩阵标准化

各评价指标之间标准化(矩阵的行是n个被评价对象、列是m个评价指标),目的是消除量纲影响

计算得分并归一化

计算评分的公式:

 带权重的指标:\omega 之和 = 1、

(权重可以通过层次分析法熵权法确定)
(层次分析法主观因素多、熵权法是一种客观赋权方法)

熵权法确定权重对topsis改进

熵权法的计算步骤

判断正向化、标准化后矩阵是否有负数

       要利用熵权法,则正向化、标准化后的矩阵不能有负数(因为概率不能为负),有负数则将正向化后的矩阵按下图红框公式重新标准化:

 计算每列指标中各样本的概率

计算信息熵、信息效用值

信息效用值越大、信息熵越小、信息量越多、权重越大

(信息熵衡量的是事件的不确定度,
    信息量越多 不确定度当然越小,
    信息量越多 当然该信息越重要 权重也越大)

 熵权法的原理

信息量

       熵权法是一种客观赋权方法,从数据本身得到权重

       依据的原理: 指标的变异程度(可理解为方差/标准差)越小,所反映的信息量也越少,其对应的权值越低

       信息量的度量:概率
       
事件发生概率越小、包含信息量越多;
       事件越可能发生、信息量越少

事件的某情况发生的概率与其信息量关系:负对数

 信息熵

    发生概率p越小、信息量-ln(p)越大、信息熵越小
(信息熵衡量的是不确定性,信息量大了不确定性当然小)

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/70145
推荐阅读
相关标签
  

闽ICP备14008679号