赞
踩
from sklearn.naive_bayes import GaussianNB from sklearn.datasets import load_iris import pandas as pd from sklearn.model_selection import train_test_split iris = load_iris() X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2) #print(iris.target)#分类标签 #https://www.cnblogs.com/Yanjy-OnlyOne/p/11288098.html clf = GaussianNB().fit(X_train, y_train) #scikit-learn 朴素贝叶斯类库 #朴素贝叶斯是一类比较简单的算法,scikit-learn中朴素贝叶斯类库的使用也比较简单。 #相对于决策树,KNN之类的算法,朴素贝叶斯需要关注的参数是比较少的,这样也比较容易掌握。 #在scikit-learn中,一共有3个朴素贝叶斯的分类算法类。分别是GaussianNB,MultinomialNB和BernoulliNB。 #其中GaussianNB就是先验为高斯分布的朴素贝叶斯,MultinomialNB就是先验为多项式分布的朴素贝叶斯,而BernoulliNB就是先验为伯努利分布的朴素贝叶斯。 #这三个类适用的分类场景各不相同,主要根据数据类型来进行模型的选择。 #一般来说,如果样本特征的分布大部分是连续值,使用GaussianNB会比较好。 #如果如果样本特征的分大部分是多元离散值,使用MultinomialNB比较合适。 #而如果样本特征是二元离散值或者很稀疏的多元离散值,应该使用BernoulliNB。 #https://blog.csdn.net/brucewong0516/article/details/78798359 print ("Classifier Score:", clf.score(X_test, y_test))
Classifier Score: 0.9666666666666667
编号 | 色泽 | 根蒂 | 敲声 | 纹理 | 脐部 | 触感 | 好瓜 |
---|---|---|---|---|---|---|---|
1 | 青绿 | 蜷缩 | 浊响 | 清晰 | 凹陷 | 硬滑 | 是 |
2 | 乌黑 | 蜷缩 | 沉闷 | 清晰 | 凹陷 | 硬滑 | 是 |
3 | 乌黑 | 蜷缩 | 浊响 | 清晰 | 凹陷 | 硬滑 | 是 |
4 | 青绿 | 蜷缩 | 沉闷 | 清晰 | 凹陷 | 硬滑 | 是 |
5 | 浅白 | 蜷缩 | 浊响 | 清晰 | 凹陷 | 硬滑 | 是 |
6 | 青绿 | 稍蜷 | 浊响 | 清晰 | 稍凹 | 软粘 | 是 |
7 | 乌黑 | 稍蜷 | 浊响 | 稍糊 | 稍凹 | 软粘 | 是 |
8 | 乌黑 | 稍蜷 | 浊响 | 清晰 | 稍凹 | 硬滑 | 是 |
9 | 乌黑 | 稍蜷 | 沉闷 | 稍糊 | 稍凹 | 硬滑 | 否 |
10 | 青绿 | 硬挺 | 清脆 | 清晰 | 平坦 | 软粘 | 否 |
11 | 浅白 | 硬挺 | 清脆 | 模糊 | 平坦 | 硬滑 | 否 |
12 | 浅白 | 蜷缩 | 浊响 | 模糊 | 平坦 | 软粘 | 否 |
13 | 青绿 | 稍蜷 | 浊响 | 稍糊 | 凹陷 | 硬滑 | 否 |
14 | 浅白 | 稍蜷 | 沉闷 | 稍糊 | 凹陷 | 硬滑 | 否 |
15 | 乌黑 | 稍蜷 | 浊响 | 清晰 | 稍凹 | 软粘 | 否 |
16 | 浅白 | 蜷缩 | 浊响 | 模糊 | 平坦 | 硬滑 | 否 |
17 | 青绿 | 蜷缩 | 沉闷 | 稍糊 | 稍凹 | 硬滑 | 否 |
生成模型:在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。
它给观测值和标注数据序列指定一个联合概率分布。
在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。
条件概率分布可以由生成模型根据贝叶斯定理形成。常见的基于生成模型算法有高斯混合模型和其他混合模型、隐马尔可夫模型、随机上下文无关文法、朴素贝叶斯分类器、AODE分类器、潜在狄利克雷分配模型、受限玻尔兹曼机
举例:要确定一个瓜是好瓜还是坏瓜,用判别模型的方法是从历史数据中学习到模型,然后通过提取这个瓜的特征来预测出这只瓜是好瓜的概率,是坏瓜的概率。
举例:利用生成模型是根据好瓜的特征首先学习出一个好瓜的模型,然后根据坏瓜的特征学习得到一个坏瓜的模型,然后从需要预测的瓜中提取特征,放到生成好的好瓜的模型中看概率是多少,在放到生产的坏瓜模型中看概率是多少,哪个概率大就预测其为哪个。
获得后验概率的两种方法:
机器学习中朴素贝叶斯模型、隐马尔可夫模型HMM等都是生成式模型,熟悉Naive Bayes的都知道,对于输入X,需要求出好几个联合概率,然后较大的那个就是预测结果~(根本原因个人认为是对于某示例X_1,对正例和反例的标记的联合概率不等于1,即P(Y_1,X_1)+P(Y_2,X_1)<1,要遍历所有的X和Y的联合概率求和,即sum(P(X,Y))=1,具体可参见楼上woodyhui提到的维基百科Generative model里的例子)
博文机器学习之判别式模型和生成式模型 - nolonely - 博客园 举了一个例子:
判别式模型举例:要确定一个羊是山羊还是绵羊,用判别模型的方法是从历史数据中学习到模型,然后通过提取这只羊的特征来预测出这只羊是山羊的概率,是绵羊的概率。
生成式模型举例:利用生成模型是根据山羊的特征首先学习出一个山羊的模型,然后根据绵羊的特征学习出一个绵羊的模型,然后从这只羊中提取特征,放到山羊模型中看概率是多少,在放到绵羊模型中看概率是多少,哪个大就是哪个。
细细品味上面的例子,判别式模型是根据一只羊的特征可以直接给出这只羊的概率(比如logistic regression,这概率大于0.5时则为正例,否则为反例),而生成式模型是要都试一试,最大的概率的那个就是最后结果~补充20180524:在机器学习中任务是从属性X预测标记Y,判别模型求的是P(Y|X),即后验概率;而生成模型最后求的是P(X,Y),即联合概率。
从本质上来说:判别模型之所以称为“判别”模型,是因为其根据X“判别”Y;而生成模型之所以称为“生成”模型,是因为其预测的根据是联合概率P(X,Y),而联合概率可以理解为“生成”(X,Y)样本的概率分布(或称为 依据);具体来说,机器学习已知X,从Y的候选集合中选出一个来,可能的样本有(X,Y_1), (X,Y_2), (X,Y_3),……,(X,Y_n),实际数据是如何“生成”的依赖于P(X,Y),那么最后的预测结果选哪一个Y呢?那就选“生成”概率最大的那个吧~
引用链接:https://www.zhihu.com/question/20446337/answer/256466823
条件概率: 就是事件A在事件B发生的条件下发生的概率。条件概率表示为P(A|B),读作“A在B发生的条件下发生的概率”。
通过上述西瓜的数据集来看
条件概率,就是在条件为瓜的颜色是青绿的情况下,瓜是好瓜的概率
先验概率,就是常识、经验、统计学所透露出的“因”的概率,即瓜的颜色是青绿的概率。
后验概率,就是在知道“果”之后,去推测“因”的概率,也就是说,如果已经知道瓜是好瓜,那么瓜的颜色是青绿的概率是多少。后验和先验的关系就需要运用贝叶斯决策理论来求解。
贝叶斯决策论是概率框架下实施决策的基本方法,对分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。
假设有N种可能标记, λ i j λ_{ij} λij是将类 c j c_j cj误分类为 c i c_i ci所产生的损失,基于后验概率$ P(c_i | x)$ 可以获得样本x分类为 c i c_i ci所产生的期望损失 ,即在样本x上的条件风险:
R
(
c
i
∣
x
)
=
∑
j
=
1
N
λ
i
j
P
(
c
j
∣
x
)
R(c_i|\mathbf{x}) = \sum_{j=1}^N \lambda_{ij} P(c_j|\mathbf{x})
R(ci∣x)=j=1∑NλijP(cj∣x)
我们的任务是寻找一个判定准则
h
:
X
→
Y
h:X→Y
h:X→Y以最小化总体风险
R ( h ) = E x [ R ( h ( ( x ) ) ∣ ( x ) ) ] R(h)= \mathbb{E}_x [R(h(\mathbf(x)) | \mathbf(x))] R(h)=Ex[R(h((x))∣(x))]
显然,对每个样本x,若h能最小化条件风险 R ( h ( ( x ) ) ∣ ( x ) ) R(h((x))|(x)) R(h((x))∣(x)),则总体风险R(h)也将被最小化。这就产生了贝叶斯判定准则:为最小化总体风险,只需要在每个样本上选择那个能使条件风险R(c|x)最小的类别标记,即:
h
∗
(
x
)
=
a
r
g
m
i
n
c
∈
y
R
(
c
∣
x
)
h^* (x) = argmin_{c\in y} R(c|\mathbf{x})
h∗(x)=argminc∈yR(c∣x)
此时,h 称作贝叶斯最优分类器,与之对应的总体风险R(h )称为贝叶斯风险,1-R(h*)反映了分类器能达到的最好性能,即机器学习所产生的模型精度的上限。
具体来说,若目标是最小化分类错误率(对应0/1损失),则
λ
i
j
λ_{ij}
λij可以用0/1损失改写,得到条件风险和最小化分类错误率的最优分类器分别为:
R
(
c
∣
x
)
=
1
−
P
(
c
∣
x
)
R(c|\mathbf{x}) = 1- P(c|\mathbf{x})
R(c∣x)=1−P(c∣x)
h ∗ ( x ) = a r g m a x c ∈ Y P ( c ∣ x ) h^*(x) = argmax_{c\in \mathcal{Y}} P(c|\mathbf{x}) h∗(x)=argmaxc∈YP(c∣x)
即对每个样本x,选择能使后验概率P(c|x)最大的类别标识。
获得后验概率的两种方法:
对生成模型来说,必然考虑:
P
(
c
∣
x
)
=
P
(
x
,
c
)
P
(
x
)
=
P
(
c
)
P
(
x
∣
c
)
P
(
x
)
P(c|x) = \frac{P(x,c)}{P(x)} = \frac{P(c) P(x|c)}{P(x)}
P(c∣x)=P(x)P(x,c)=P(x)P(c)P(x∣c)
其中P©是“先验概率”;
P(x|c)是样本x对于类标记c的类条件概率,或称为“似然”;
P(x)是用于归一化的“证据”因子。
上式即为贝叶斯公式。
可以将其看做 P ( 类 别 ∣ 特 征 ) = P ( 特 征 , 类 别 ) P ( 特 征 ) = P ( 类 别 ) P ( 特 征 ∣ 类 别 ) P ( 特 征 ) P(类别|特征) = \frac{P(特征,类别)}{P(特征)} = \frac{P(类别) P(特征|类别)}{P(特征)} P(类别∣特征)=P(特征)P(特征,类别)=P(特征)P(类别)P(特征∣类别)
对类条件概率P(x|c)来说(以某个分类category作为条件的概率),直接根据样本出现的频率来估计将会遇到严重的困难,所以引入了极大似然估计。
估计类条件概率有一种常用的策略就是先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布的参数进行估计。假设P(x|c)具有某种确定的形式并且被参数 θ c θ_c θc 唯一确定,则我们的任务就是利用训练集D估计参数 θ c θ_c θc。为了明确期起见,我们将P(x|c)记为 p ( x ∣ θ c ) p(x|θc) p(x∣θc).
接下来我们用下面这个例子来作为实例探讨:假设一个袋子装有白球与红球,比例未知,现在抽取10次(每次抽完都放回,保证事件独立性),假设抽到了7次白球和3次红球,在此数据样本条件下,可以采用最大似然估计法求解袋子中白球的比例(最大似然估计是一种“模型已定,参数未知”的方法)。当然,这种数据情况下很明显,白球的比例是70%,但如何通过理论的方法得到这个答案呢?一些复杂的条件下,是很难通过直观的方式获得答案的,这时候理论分析就尤为重要了,这也是学者们为何要提出最大似然估计的原因。我们可以定义从袋子中抽取白球和红球的概率如下:
x1为第一次采样,x2为第二次采样,f为模型, theta为模型参数
这里的条件参数就是已确定模型中未知的参数,代表符号意义,而没有计算意义。
上式意义:在满足模型参数确定为θ的前提下,两次抽样结果的联合概率,(由于每次相互独立)等于确定在该模型且参数确定为θ的前提下两次概率分布之积。
其中
θ
\theta
θ是未知的,因此,我们定义似然L为:
L为似然的符号,L含义:在有样本x1-xn已知的前提下,未知参数为θ的可能性。
其等于未知参数为θ的时候,x1-xn的联合概率分布。
两边取ln,取ln是为了将右边的乘号变为加号,方便求导。
两边取ln的结果,左边的通常称之为对数似然
这是平均对数似然(当然,样本多的时候就除以n,把多次采样的结果平均给一次采样,降低误差)
最大似然估计的过程,就是找一个合适的theta,使得平均对数似然的值为最大(因为平均对数似然正相关于模型中未知数为θ的时候,已知样本发生的联合概率,所以两者互为照应:在已知x1-xn发生情况下,未知数最可能的取值 正相关于 模型未知数为最可能的值θ时,采样取到已知样本组合的概率)。
用模型中的未知参数表示已知样本发生的概率,而后求该函数取得最大值(也就是客观事实最可能发生情况下)(求导得到极大值)时候的位置参数值。
因此,可以得到以下公式:
最大似然估计的公式
这里讨论的是2次采样的情况,当然也可以拓展到多次采样的情况:
最大似然估计的公式(n次采样)
我们定义M为模型(也就是之前公式中的f),表示抽到白球的概率为theta,而抽到红球的概率为(1-theta),因此10次抽取抽到白球7次的概率可以表示为:
10次抽取抽到白球7次的概率
步骤1:求取模型M确定的情况下,已知样本的联合条件概率。(一般都满足样本独立,就转化成每个样本的概率分布之积)用含有未知参数的公式表示样本的联合条件概率。
将其描述为平均似然可得:
10次抽取抽到白球7次的平均对数似然,抽球的情况比较简单,可以直接用平均似然来求解。
步骤2:使用对数化简,变成对数似然。
那么最大似然就是找到一个合适的theta,获得最大的平均似然。
步骤3:对平均似然的公式对theta求导,并另导数为0。
求导过程
由此可得,当抽取白球的概率为0.7时,最可能产生10次抽取抽到白球7次的事件。
以上就用到了最大似然估计的思想
令Dc表示训练集D中第c类样本组成的集合,假设这些集合是独立同分布的,则对参数θcθc对于数据集Dc的似然是:
P
(
D
c
∣
θ
c
)
=
∏
P
(
x
∣
θ
c
)
P(D_c|\theta_c) = \prod P(\mathbf{x}|\theta_c)
P(Dc∣θc)=∏P(x∣θc)
对
θ
c
θ_c
θc进行激发似然估计,就是去寻找能最大化似然函数的参数值
θ
c
θ_c
θc.直观上,极大似然估计是在试图在
θ
c
θ_c
θc的所有可能的取值中,找到一个能使数据出现最大“可能性”的最大值。
上面的式子中的连乘操作容易造成下溢,通常使用对数似然:
L
(
θ
c
)
=
log
P
(
D
c
∣
θ
c
)
=
∑
x
∈
D
c
log
P
(
x
∣
θ
c
)
L(\theta_c) = \log P(D_c| \theta_c) = \sum_{x\in D_c} \log P(x|\theta_c)
L(θc)=logP(Dc∣θc)=x∈Dc∑logP(x∣θc)
此时,参数
θ
c
θ_c
θc的极大似然估计
θ
c
^
\hat{\theta_c}
θc^为
θ
c
^
=
a
r
g
m
a
x
θ
c
L
L
(
θ
c
)
\hat{\theta_c} = argmax_{\theta_c} LL(\theta_c)
θc^=argmaxθcLL(θc)
例如,在连续属性的情形下,假设概率密度函数
p
(
x
∣
c
)
∼
N
(
μ
c
,
σ
2
)
p(x|c) \sim \mathcal{N}(\mu_c , \sigma^2)
p(x∣c)∼N(μc,σ2),则参数
μ
c
μ_c
μc和
σ
2
σ_2
σ2的极大似然估计为:
μ
c
^
=
1
∣
D
c
∣
∑
x
∈
D
c
x
\hat{\mu_c} = \frac{1}{|D_c|} \sum_{x\in D_c} x
μc^=∣Dc∣1∑x∈Dcx
σ
c
^
2
=
1
∣
D
c
∣
∑
x
∈
D
c
(
x
−
μ
c
^
)
(
x
−
μ
c
^
T
)
\hat{\sigma_c}^2 = \frac{1}{|D_c|} \sum_{x\in D_c} (x-\hat{\mu_c} )(x-\hat{\mu_c} ^T)
σc^2=∣Dc∣1∑x∈Dc(x−μc^)(x−μc^T)
也就是说通过极大似然法得到的正态分布均值就是样本均值,方差就是
(
x
−
μ
c
^
)
(
x
−
μ
c
^
T
)
(x-\hat{\mu_c} )(x-\hat{\mu_c} ^T)
(x−μc^)(x−μc^T)的均值。这显然是一个符合只觉得结果,在离散属性情形下,也可以通过类似的方法来估计类条件概率。
举个例子:一班同学共计100人,他们的考试成绩满足正态分布。抽出10人成绩,平均值60,那么一班的平均成绩就是60。通过对样本的计算就可以直接求出模型未知参数。
需要注意的是这种方法虽然能够使类条件概率估计变得简单,但是估计结果准确性严重依赖于所假设的概率分布形式是否符合潜在的真实数据分布。在显示生活中往往需要应用任务本身的经验知识,“猜测”则会导致误导性的结果。
贝叶斯分类器的训练过程就是参数估计。总结最大似然法估计参数的过程,一般分为以下四个步骤:
1.写出似然函数;
2.对似然函数取对数,并整理;
3.求导数,令偏导数为0,得到似然方程组;
4.解似然方程组,得到所有参数即为所求。
基于贝叶斯公式来估计后验概率P(c|x)主要困难在于类条件概率P(x|c)是所有属性上的联合概率,难以从有限的训练样本直接估计而得。
基于有限训练样本直接计算联合概率,在计算上将会遭遇组合爆炸问题;在数据上将会遭遇样本稀疏问题;属性越多,问题越严重。
为了避开这个障碍,朴素贝叶斯分类器采用了 “ 属 性 条 件 独 立 性 假 设 ” “属性条件独立性假设” “属性条件独立性假设”:对已知类别,假设所有属性相互独立。换言之,假设每个属性独立的对分类结果发生影响相互独立。
回答西瓜的例子就可以认为{色泽 根蒂 敲声 纹理 脐部 触感}这些属性对西瓜是好还是坏的结果所产生的影响相互独立。
基于条件独立性假设,对于多个属性的后验概率可以写成:
P
(
c
∣
x
)
=
P
(
C
)
P
(
x
∣
c
)
P
(
x
)
=
P
(
c
)
P
(
x
)
∏
i
=
1
d
P
(
x
i
∣
c
)
P(c|\mathbf{x}) = \frac{P(C)P(\mathbf{x}|c)}{P(\mathbf{x})} = \frac{P(c)}{P(\mathbf{x})}\prod_{i=1}^d P(x_i|c)
P(c∣x)=P(x)P(C)P(x∣c)=P(x)P(c)i=1∏dP(xi∣c)
d为属性数目,
x
i
x_i
xi是x在第i个属性上取值。
对于所有的类别来说P(x)相同,基于极大似然的贝叶斯判定准则有朴素贝叶斯的表达式:
h
n
b
(
x
)
=
arg
m
a
x
c
∈
Y
P
(
c
)
∏
i
=
1
d
P
(
x
i
∣
c
)
(
1
)
h_{nb}(\mathbf{x}) = \arg max_{c\in \mathcal{Y}}P(c)\prod_{i=1}^d P(x_i|c) \quad (1)
hnb(x)=argmaxc∈YP(c)i=1∏dP(xi∣c)(1)
极值问题
很多时候遇到求出各种目标函数(object function)的最值问题(最大值或者最小值)。关于函数最值问题,其实在高中的时候我们就已经了解不少,最经典的方法就是:直接求出极值点。这些极值点的梯度为0。若极值点唯一,则这个点就是代入函数得出的就是最值;若极值点不唯一,那么这些点中,必定存在最小值或者最大值(去除函数的左右的最端点),所以把极值代入函数,经对比后可得到结果。
请注意:并不一定所有函数的极值都可以通过设置导数为0的方式求 出。也就是说,有些问题中当我们设定导数为0时,未必能直接计算出满足导数为0的点(比如逻辑回归模型),这时候就需要利用数值计算相关的技术(最典型为梯度下降法,牛顿法……)。
数值下溢问题:是指计算机浮点数计算的结果小于可以表示的最小数,因为计算机的能力有限,当数值小于一定数时,其无法精确保存,会造成数值的精度丢失,由上述公式可以看到,求概率时多个概率值相乘,得到的结果往往非常小;因此通常采用取对数的方式,将连乘转化为连加,以避免数值下溢。
零概率问题,就是在计算实例的概率时,如果某个量x,在观察样本库(训练集)中没有出现过,会导致整个实例的概率结果是0.
在实际的模型训练过程中,可能会出现零概率问题(因为先验概率和反条件概率是根据训练样本算的,但训练样本数量不是无限的,所以可能出现有的情况在实际中存在,但在训练样本中没有,导致为0的概率值,影响后面后验概率的计算),即便可以继续增加训练数据量,但对于有些问题来说,数据怎么增多也是不够的。这时我们说模型是不平滑的,我们要使之平滑,一种方法就是将训练(学习)的方法换成贝叶斯估计。
现在看一个示例,及
P
(
敲
声
=
清
脆
∣
好
瓜
=
是
)
=
8
0
=
0
P(敲声=清脆|好瓜=是)=\frac{8}{0}=0
P(敲声=清脆∣好瓜=是)=08=0
不论样本的其他属性如何,分类结果都会为“好瓜=否”,这样显然不太合理。
朴素贝叶斯算法的先天缺陷:其他属性携带的信息被训练集中某个分类下未出现的属性值“抹去”,造成预测出来的概率绝对为0。为了拟补这一缺陷,前辈们引入了拉普拉斯平滑的方法:对先验概率的分子(划分的计数)加1,分母加上类别数;对条件概率分子加1,分母加上对应特征的可能取值数量。这样在解决零概率问题的同时,也保证了概率和依然为1:
P
(
c
)
=
∣
D
c
∣
∣
D
∣
→
P
(
c
)
=
∣
D
c
∣
+
1
∣
D
∣
+
N
P(c) = \frac{{|{D_c}|}}{{|D|}} \to P(c) = \frac{{|{D_c}| + 1}}{{|D| + N}}
P(c)=∣D∣∣Dc∣→P(c)=∣D∣+N∣Dc∣+1
P
(
x
i
∣
c
)
=
∣
D
x
i
∣
c
∣
∣
D
c
∣
→
P
(
x
i
∣
c
)
=
∣
D
x
i
∣
c
∣
+
1
∣
D
c
∣
+
N
i
P({x_i}|c) = \frac{{|{D_{{x_i}|c}}|}}{{|{D_c}|}} \to P({x_i}|c) = \frac{{|{D_{{x_i}|c}}| + 1}}{{|{D_c}| + {N_i}}}
P(xi∣c)=∣Dc∣∣Dxi∣c∣→P(xi∣c)=∣Dc∣+Ni∣Dxi∣c∣+1
其中,N表示数据集中分类标签, N i N_i Ni表示第 i i i个属性的取值类别数,|D|样本容量, ∣ D c ∣ |D_c| ∣Dc∣表示类别c的记录数量, ∣ D x i ∣ c ∣ {|{D_{{x_i}|c}}|} ∣Dxi∣c∣表示类别c中第i个属性取值为 x i x_i xi的记录数量。
将这两个式子应用到上面的计算过程中,就可以弥补朴素贝叶斯算法的这一缺陷问题。
用西瓜的数据来看,当我们计算
P(好瓜=是)时,样本有17个,所以|D| = 17,N,好瓜标签可以分为{是,否}两类,所以N=2,(好瓜=是)的样本个数有8个,所以这里 ∣ D c ∣ |D_c| ∣Dc∣=8。
综上,根据拉普拉斯平滑后有
P
(
好
瓜
=
是
)
=
∣
D
c
∣
+
1
∣
D
∣
+
N
=
∣
8
∣
+
1
∣
17
∣
+
2
P(好瓜=是) = \frac{{|{D_c}| + 1}}{{|D| + N}} = \frac{{|{8}| + 1}}{{|17| + 2}}
P(好瓜=是)=∣D∣+N∣Dc∣+1=∣17∣+2∣8∣+1
P(色泽=青绿|好瓜=是)时,色泽青绿的样本有8个,所以|D_c| = 8,N,色泽标签可以分为{青绿,浅白,乌黑}三类,所以N=3,(好瓜=是)的样本个数有3个,所以这里
∣
D
c
,
x
i
∣
|D_{c,x_i}|
∣Dc,xi∣=3。
综上,根据拉普拉斯平滑后有
P
(
色
泽
=
青
绿
∣
好
瓜
=
是
)
=
∣
D
x
i
∣
c
∣
+
1
∣
D
c
∣
+
N
i
=
∣
3
∣
+
1
∣
8
∣
+
3
P(色泽=青绿|好瓜=是)= \frac{{|{D_{{x_i}|c}}| + 1}}{{|{D_c}| + {N_i}}}=\frac{{|{3}}| + 1}{{|{8}| + {3}}}
P(色泽=青绿∣好瓜=是)=∣Dc∣+Ni∣Dxi∣c∣+1=∣8∣+3∣3∣+1
同理,分析可知,之前不合理的
P
(
敲
声
=
清
脆
∣
好
瓜
=
是
)
=
8
0
=
0
P(敲声=清脆|好瓜=是)=\frac{8}{0}=0
P(敲声=清脆∣好瓜=是)=08=0在进行拉普拉斯平滑后为
P
(
敲
声
=
清
脆
∣
好
瓜
=
是
)
=
∣
D
x
i
∣
c
∣
+
1
∣
D
c
∣
+
N
i
=
∣
0
∣
+
1
∣
8
∣
+
3
P(敲声=清脆|好瓜=是)= \frac{{|{D_{{x_i}|c}}| + 1}}{{|{D_c}| + {N_i}}}=\frac{{|{0}}| + 1}{{|{8}| + {3}}}
P(敲声=清脆∣好瓜=是)=∣Dc∣+Ni∣Dxi∣c∣+1=∣8∣+3∣0∣+1显然结果不是0,使结果变得合理。
class sklearn.naive_bayes.GaussianNB(priors=None) 参数: priors:先验概率大小,如果没有给定,模型则根据样本数据自己计算(利用极大似然法)。 var_smoothing:可选参数,所有特征的最大方差 属性: class_prior_:每个样本的概率 class_count:每个类别的样本数量 classes_:分类器已知的标签类型 theta_:每个类别中每个特征的均值 sigma_:每个类别中每个特征的方差 epsilon_:方差的绝对加值方法 # 贝叶斯的方法和其他模型的方法一致。 fit(X,Y):在数据集(X,Y)上拟合模型。 get_params():获取模型参数。 predict(X):对数据集X进行预测。 predict_log_proba(X):对数据集X预测,得到每个类别的概率对数值。predict_proba(X):对数据集X预测,得到每个类别的概率。 score(X,Y):得到模型在数据集(X,Y)的得分情况。
根据李航老师的代码构建自己的朴素贝叶斯模型
这里采用GaussianNB 高斯朴素贝叶斯,概率密度函数为
P
(
x
i
∣
y
k
)
=
1
2
π
σ
y
k
2
e
x
p
(
−
(
x
i
−
μ
y
k
)
2
2
σ
y
k
2
)
P(x_{i}|y_{k}) = \frac{1}{\sqrt{2\pi\sigma_{y_{k}}^{2}}}exp( -\frac{(x_{i}-\mu_{y_{k}})^2} {2\sigma_{y_{k}}^{2}} )
P(xi∣yk)=2πσyk2
1exp(−2σyk2(xi−μyk)2)
数学期望:
μ
\mu
μ
方差:
σ
2
=
1
n
∑
i
n
(
x
i
−
x
‾
)
2
\sigma ^2=\frac{1}{n}\sum_i^n(x_i-\overline x)^2
σ2=n1∑in(xi−x)2
https://github.com/fengdu78/lihang-code/blob/master/%E7%AC%AC04%E7%AB%A0%20%E6%9C%B4%E7%B4%A0%E8%B4%9D%E5%8F%B6%E6%96%AF/4.NaiveBayes.ipynb
import math class NaiveBayes: def __init__(self): self.model = None # 数学期望 @staticmethod def mean(X): """计算均值 Param: X : list or np.ndarray Return: avg : float """ avg = 0.0 # ========= show me your code ================== avg = sum(X) / float(len(X)) # ========= show me your code ================== return avg # 标准差(方差) def stdev(self, X): """计算标准差 Param: X : list or np.ndarray Return: res : float """ res = 0.0 # ========= show me your code ================== avg = self.mean(X) res = math.sqrt(sum([pow(x - avg, 2) for x in X]) / float(len(X))) # ========= show me your code ================== return res # 概率密度函数 def gaussian_probability(self, x, mean, stdev): """根据均值和标注差计算x符号该高斯分布的概率 Parameters: ---------- x : 输入 mean : 均值 stdev : 标准差 Return: res : float, x符合的概率值 """ res = 0.0 # ========= show me your code ================== exponent = math.exp(-(math.pow(x - mean, 2) / (2 * math.pow(stdev, 2)))) res = (1 / (math.sqrt(2 * math.pi) * stdev)) * exponent # ========= show me your code ================== return res # 处理X_train def summarize(self, train_data): """计算每个类目下对应数据的均值和标准差 Param: train_data : list Return : [mean, stdev] """ summaries = [0.0, 0.0] # ========= show me your code ================== summaries = [(self.mean(i), self.stdev(i)) for i in zip(*train_data)] # ========= show me your code ================== return summaries # 分类别求出数学期望和标准差 def fit(self, X, y): labels = list(set(y)) data = {label: [] for label in labels} for f, label in zip(X, y): data[label].append(f) self.model = { label: self.summarize(value) for label, value in data.items() } return 'gaussianNB train done!' # 计算概率 def calculate_probabilities(self, input_data): """计算数据在各个高斯分布下的概率 Paramter: input_data : 输入数据 Return: probabilities : {label : p} """ # summaries:{0.0: [(5.0, 0.37),(3.42, 0.40)], 1.0: [(5.8, 0.449),(2.7, 0.27)]} # input_data:[1.1, 2.2] probabilities = {} # ========= show me your code ================== for label, value in self.model.items(): probabilities[label] = 1 for i in range(len(value)): mean, stdev = value[i] probabilities[label] *= self.gaussian_probability( input_data[i], mean, stdev) # ========= show me your code ================== return probabilities # 类别 def predict(self, X_test): # {0.0: 2.9680340789325763e-27, 1.0: 3.5749783019849535e-26} label = sorted(self.calculate_probabilities(X_test).items(), key=lambda x: x[-1])[-1][0] return label # 计算得分 def score(self, X_test, y_test): right = 0 for X, y in zip(X_test, y_test): label = self.predict(X) if label == y: right += 1 return right / float(len(X_test))
model = NaiveBayes()
model.fit(X_train, y_train)
(array([4.7, 3.2, 1.6, 0.2]),) (array([4.3, 3. , 1.1, 0.1]),) (array([5.1, 3.8, 1.6, 0.2]),) (array([4.8, 3. , 1.4, 0.3]),) (array([5.1, 3.7, 1.5, 0.4]),) (array([4.7, 3.2, 1.3, 0.2]),) (array([4.4, 2.9, 1.4, 0.2]),) (array([5.2, 3.4, 1.4, 0.2]),) (array([5.1, 3.4, 1.5, 0.2]),) (array([4.6, 3.4, 1.4, 0.3]),) (array([4.6, 3.6, 1. , 0.2]),) (array([5. , 3.5, 1.6, 0.6]),) (array([4.9, 3.1, 1.5, 0.1]),) (array([5.7, 3.8, 1.7, 0.3]),) (array([4.6, 3.1, 1.5, 0.2]),) (array([4.9, 3.6, 1.4, 0.1]),) (array([4.8, 3.4, 1.9, 0.2]),) (array([5.1, 3.5, 1.4, 0.3]),) (array([5.1, 3.8, 1.5, 0.3]),) (array([5.3, 3.7, 1.5, 0.2]),) (array([5.4, 3.9, 1.7, 0.4]),) (array([5. , 3.4, 1.6, 0.4]),) (array([5.4, 3.7, 1.5, 0.2]),) (array([5.1, 3.5, 1.4, 0.2]),) (array([4.9, 3. , 1.4, 0.2]),) (array([5.7, 4.4, 1.5, 0.4]),) (array([4.8, 3.4, 1.6, 0.2]),) (array([4.4, 3.2, 1.3, 0.2]),) (array([5. , 3.3, 1.4, 0.2]),) (array([4.6, 3.2, 1.4, 0.2]),) (array([5.4, 3.4, 1.5, 0.4]),) (array([5.1, 3.8, 1.9, 0.4]),) (array([4.5, 2.3, 1.3, 0.3]),) (array([5. , 3.5, 1.3, 0.3]),) (array([4.4, 3. , 1.3, 0.2]),) (array([5.2, 3.5, 1.5, 0.2]),) (array([6. , 2.7, 5.1, 1.6]),) (array([6.1, 2.8, 4.7, 1.2]),) (array([6.6, 2.9, 4.6, 1.3]),) (array([6.4, 2.9, 4.3, 1.3]),) (array([5.8, 2.6, 4. , 1.2]),) (array([5.5, 2.5, 4. , 1.3]),) (array([5.5, 2.4, 3.8, 1.1]),) (array([5.6, 2.5, 3.9, 1.1]),) (array([5.4, 3. , 4.5, 1.5]),) (array([6.4, 3.2, 4.5, 1.5]),) (array([5.7, 2.8, 4.1, 1.3]),) (array([6. , 3.4, 4.5, 1.6]),) (array([5.9, 3.2, 4.8, 1.8]),) (array([6.6, 3. , 4.4, 1.4]),) (array([5.6, 3. , 4.5, 1.5]),) (array([5.8, 2.7, 3.9, 1.2]),) (array([4.9, 2.4, 3.3, 1. ]),) (array([5.9, 3. , 4.2, 1.5]),) (array([6. , 2.9, 4.5, 1.5]),) (array([5.7, 3. , 4.2, 1.2]),) (array([7. , 3.2, 4.7, 1.4]),) (array([6.3, 2.5, 4.9, 1.5]),) (array([5.5, 2.6, 4.4, 1.2]),) (array([6.1, 2.8, 4. , 1.3]),) (array([5. , 2. , 3.5, 1. ]),) (array([6.3, 2.3, 4.4, 1.3]),) (array([5.5, 2.3, 4. , 1.3]),) (array([5.6, 2.7, 4.2, 1.3]),) (array([5.6, 2.9, 3.6, 1.3]),) (array([5.7, 2.8, 4.5, 1.3]),) (array([6.2, 2.9, 4.3, 1.3]),) (array([6.1, 3. , 4.6, 1.4]),) (array([5.5, 2.4, 3.7, 1. ]),) (array([6.7, 3. , 5. , 1.7]),) (array([5.8, 2.7, 4.1, 1. ]),) (array([6.5, 2.8, 4.6, 1.5]),) (array([6. , 2.2, 4. , 1. ]),) (array([6.9, 3.1, 4.9, 1.5]),) (array([5.6, 3. , 4.1, 1.3]),) (array([6.8, 2.8, 4.8, 1.4]),) (array([5. , 2.3, 3.3, 1. ]),) (array([6.3, 3.3, 4.7, 1.6]),) (array([6.2, 2.2, 4.5, 1.5]),) (array([5.7, 2.6, 3.5, 1. ]),) (array([5.1, 2.5, 3. , 1.1]),) (array([6.3, 2.7, 4.9, 1.8]),) (array([6.7, 2.5, 5.8, 1.8]),) (array([6.2, 3.4, 5.4, 2.3]),) (array([5.8, 2.8, 5.1, 2.4]),) (array([4.9, 2.5, 4.5, 1.7]),) (array([6.7, 3.3, 5.7, 2.1]),) (array([6.3, 2.9, 5.6, 1.8]),) (array([6.9, 3.1, 5.1, 2.3]),) (array([6.4, 3.1, 5.5, 1.8]),) (array([6.1, 3. , 4.9, 1.8]),) (array([6.5, 3. , 5.2, 2. ]),) (array([6.3, 3.4, 5.6, 2.4]),) (array([7.2, 3.2, 6. , 1.8]),) (array([7.7, 3. , 6.1, 2.3]),) (array([6.4, 2.7, 5.3, 1.9]),) (array([7.2, 3.6, 6.1, 2.5]),) (array([6.4, 3.2, 5.3, 2.3]),) (array([6. , 3. , 4.8, 1.8]),) (array([5.8, 2.7, 5.1, 1.9]),) (array([6.7, 3.3, 5.7, 2.5]),) (array([6.5, 3. , 5.5, 1.8]),) (array([5.7, 2.5, 5. , 2. ]),) (array([5.9, 3. , 5.1, 1.8]),) (array([6.4, 2.8, 5.6, 2.2]),) (array([7.7, 2.6, 6.9, 2.3]),) (array([6.3, 2.5, 5. , 1.9]),) (array([6.8, 3.2, 5.9, 2.3]),) (array([6.5, 3.2, 5.1, 2. ]),) (array([6. , 2.2, 5. , 1.5]),) (array([7.7, 2.8, 6.7, 2. ]),) (array([6.1, 2.6, 5.6, 1.4]),) (array([6.9, 3.1, 5.4, 2.1]),) (array([6.7, 3. , 5.2, 2.3]),) (array([6.2, 2.8, 4.8, 1.8]),) (array([7.2, 3. , 5.8, 1.6]),) (array([6.9, 3.2, 5.7, 2.3]),) (array([7.6, 3. , 6.6, 2.1]),) (array([5.6, 2.8, 4.9, 2. ]),) (array([6.3, 3.3, 6. , 2.5]),) 'gaussianNB train done!'
print(model.predict([4.4, 3.2, 1.3, 0.2]))
0
model.score(X_test, y_test)
0.9666666666666667
优点
缺点:
西瓜书
https://samanthachen.github.io/2016/08/05/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0_%E5%91%A8%E5%BF%97%E5%8D%8E_%E7%AC%94%E8%AE%B07/
https://www.jianshu.com/p/f1d3906e4a3e
https://zhuanlan.zhihu.com/p/66117273
https://zhuanlan.zhihu.com/p/39780650
https://blog.csdn.net/zrh_CSDN/article/details/81007851
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。