当前位置:   article > 正文

5.4算法-分类-朴素贝叶斯_features = data[::, ::]

features = data[::, ::]

https://blog.csdn.net/fuqiuai/article/details/79458943

 

 

NaïveBayes算法,又叫朴素贝叶斯算法,朴素:特征条件独立;贝叶斯:基于贝叶斯定理。属于监督学习的生成模型,实现简单,没有迭代,并有坚实的数学理论(即贝叶斯定理)作为支撑。在大量样本下会有较好的表现,不适用于输入向量的特征条件有关联的场景。

 

基本思想

 

(1)病人分类的例子

 

某个医院早上收了六个门诊病人,如下表:

 

症状  职业   疾病

——————————————————

打喷嚏 护士   感冒

打喷嚏 农夫   过敏

头痛  建筑工人 脑震荡

头痛  建筑工人 感冒

打喷嚏 教师   感冒

头痛  教师   脑震荡

现在又来了第七个病人,是一个打喷嚏的建筑工人。请问他患上感冒的概率有多大?

根据贝叶斯定理:

 

P(A|B) = P(B|A) P(A) / P(B)

可得

 

P(感冒|打喷嚏x建筑工人) 

= P(打喷嚏x建筑工人|感冒) x P(感冒) / P(打喷嚏x建筑工人)

 

假定”打喷嚏”和”建筑工人”这两个特征是独立的,因此,上面的等式就变成了

 

P(感冒|打喷嚏x建筑工人) 

= P(打喷嚏|感冒) x P(建筑工人|感冒) x P(感冒) / P(打喷嚏) x P(建筑工人)

 

这是可以计算的。

 

P(感冒|打喷嚏x建筑工人) 

= 0.66 x 0.33 x 0.5 / 0.5 x 0.33

= 0.66

 

因此,这个打喷嚏的建筑工人,有66%的概率是得了感冒。同理,可以计算这个病人患上过敏或脑震荡的概率。比较这几个概率,就可以知道他最可能得什么病。

 

这就是贝叶斯分类器的基本方法:在统计资料的基础上,依据某些特征,计算各个类别的概率,从而实现分类。

 

(2)朴素贝叶斯分类器的公式

 

假设某个体有n项特征(Feature),分别为F1、F2、…、Fn。现有m个类别(Category),分别为C1、C2、…、Cm。贝叶斯分类器就是计算出概率最大的那个分类,也就是求下面这个算式的最大值:

 

P(C|F1F2...Fn) = P(F

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号