赞
踩
在《统计学习方法》一书中,详细说明了期望风险最小化与后验概率最大化之间的关系,但是其中的公式推导过程有所省略,这篇文章作为补充说明。
首先我们假设损失函数为0-1损失函数
L
o
s
s
=
L
(
Y
,
f
(
X
)
)
=
{
1
,
Y
≠
f
(
X
)
0
,
Y
=
f
(
X
)
Loss=L(Y, f(X))=
则期望风险为
R
e
x
p
(
f
)
=
R
e
x
p
(
L
(
Y
,
f
(
X
)
)
)
=
∫
X
⋅
Y
L
(
y
,
f
(
x
)
)
P
(
y
,
x
)
d
x
d
y
=
∫
X
⋅
Y
L
(
y
,
f
(
x
)
)
P
(
y
∣
x
)
P
(
x
)
d
x
d
y
=
∫
X
∫
Y
L
(
y
,
f
(
x
)
)
P
(
y
∣
x
)
d
y
P
(
x
)
d
x
=
∫
X
(
∫
Y
L
(
y
,
f
(
x
)
)
P
(
y
∣
x
)
d
y
)
P
(
x
)
d
x
=
E
x
(
∫
Y
L
(
y
,
f
(
X
)
)
P
(
y
∣
X
)
d
y
)
在朴素贝叶斯估计中是数据是离散的,故
R
e
x
p
(
f
)
=
E
x
(
∫
Y
L
(
y
,
f
(
X
)
)
P
(
y
∣
X
)
d
y
)
=
E
x
(
∑
k
K
L
(
c
k
,
f
(
X
)
)
P
(
c
k
∣
X
)
)
因此如果要使得期望风险最小化只需要对 X = x X=x X=x逐个极小化即可
F
(
x
)
=
argmin
y
∈
Y
∑
k
K
L
(
c
k
,
y
)
P
(
c
k
∣
X
=
x
)
∵
y
=
f
(
X
=
x
)
∵
E
q
u
a
t
i
o
n
(
1
)
w
h
e
n
y
=
c
k
L
(
c
k
,
y
)
=
0
=
argmin
y
∈
Y
∑
k
K
P
(
c
k
≠
y
∣
X
=
x
)
∵
E
a
c
h
X
=
x
h
a
s
o
n
l
y
o
n
e
c
k
=
y
=
f
(
X
=
x
)
=
argmin
y
∈
Y
(
1
−
P
(
c
k
=
y
∣
X
=
x
)
)
=
argmax
y
∈
Y
P
(
c
k
=
y
∣
X
=
x
)
可证期望风险最小化等价于后验概率最大化
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。