赞
踩
本文将结合熵权法介绍TOPSIS法,并将淡化原理的推导,更侧重于具体应用。
TOPSIS法(优劣解距离法)是一种常用的综合评价方法,能充分利用原始数据的信息,其结果能精确地反映各评价方案之间的差距。同时TOPSIS法也可以结合熵权法使用确定各指标所占的权重。
常见的四种指标如下:
在进行建模之前需要对所有的指标进行正向化处理,正向化的过程就是将所有指标类型统一转化为极大型指标(越大越好)的过程(转换函数形式不唯一)。假设原始数据序列为x,则各类型指标转化为极大型指标的方法如下:
标准化的目的是消除不同指标量纲的影响。
设正向化矩阵为X,则标准化矩阵Z为:
除上述方法以外,还有许多方法,如:(x - x的均值) / x的标准差,具体选用哪一种方法在多数情况下并没有很大限制。
假设有n个要评价的对象,m个评价指标的大小为 n×m 标准化矩阵Z。
定义最大值:
定义最小值:
定义第 i 个评价对象与最大值的距离:
定义第 i 个评价对象与最小值的距离:
可以计算第 i 个评价对象未归一化的得分:
将得分归一化(得分归一化不影响排序):
以上分析过程未考虑指标的权重,可以使用熵权法来确定各指标的权重。
综上所述,算法基本过程如下:
熵权法是一种客观赋权的方法,依据的原理为:指标的变异程度越小,所反映的信息量也越少,其对应的权值也越低(客观等同于数据本身就可以告诉我们权重)。
熵权法的性质:越有可能发生的事情,信息量越少;越不可能发生的事情,信息量就越多。信息量与概率的函数关系如下:
设 x 为事件X发生的某种情况,p(x) 表示这种情况发生的概率,则 I(x) = -ln(p(x))。
定义事件 X 的信息熵为:
即,信息熵的本质是对信息量的期望值。对于熵权法而言,因为关注的是已有的信息,所以信息熵越大,信息量越小(随机变量的信息熵越大,则它的值(内容)能为你补充的信息量越大,而在知道这个值之前你已有的信息量越小)。
如果矩阵 Z 中存在负数,则要对 X 使用另一种标准化方法:
计算第 j 项指标下第 i 个样本所占的权重,并将其看作相对熵计算中用到的概率:
对于上一步得到的非负标准化矩阵,计算其概率矩阵P,且P中每一个元素的计算公式如下:
计算每一个指标的信息熵,并计算信息效用值,并归一化得到的每个指标的熵权
对于第 j 个指标而言,其信息熵的计算公式为:
信息效用值的定义:
将信息效用值进行归一化,就能得到每个指标的熵权:
上述介绍的TOPSIS法未考虑各指标的权重,当使用熵权法计算出各指标的权重时,仅需要重新计算各评价对象的D+与D-即可,其它步骤与上述未考虑权重的步骤相同。
定义第 i 个评价对象与最大值的距离:
定义第 i 个评价对象与最小值的距离:
由于最近比较忙的原因,所以本文可能存在不完善的地方,后续会继续完善文章。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。