当前位置:   article > 正文

[机器学习] - 支持向量机(三): 序列最小优化算法(SMO算法)_chrome-extension://ibllepbpahcoppkjjllbabhnigcbffp

chrome-extension://ibllepbpahcoppkjjllbabhnigcbffpi/

本文是翻译:斯坦福的cs229机器学习SVM课程PDF(SMO部分)
原文链接:chrome-extension://ibllepbpahcoppkjjllbabhnigcbffpi/http://cs229.stanford.edu/notes2019fall/cs229-notes3.pdf


1 cs229课程(SMO部分)翻译:

接下来,我们来简单推导一下 SMO 算法,作为 SVM(支持向量机算法)相关讨论的收尾。一些具体的细节就省略掉了,放到作业里面了,其他的一些内容可以参考课堂上发的纸质材料。

下面就是一个(对偶)优化问题:

max ⁡ α W ( α ) = ∑ i = 1 m α i − 1 2 ∑ i , j = 1 m y ( i ) y ( j ) α i α j ⟨ x ( i ) , x ( j ) ⟩ (17)

maxαW(α)=i=1mαi12i,j=1my(i)y(j)αiαjx(i),x(j)(17)
αmaxW(α)=i=1mαi21i,j=1my(i)y(j)αiαjx(i),x(j)(17)

  s . t . 0 ≤ α i ≤ C , i = 1 , . . . , m (18)

 s.t.0αiC,i=1,...,m(18)
 s.t.0αiC,i=1,...,m(18)

  ∑ i = 1 m α i y ( i ) = 0 (19) 

 i=1mαiy(i)=0(19) 
 i=1mαiy(i)=0(19) 

我们假设有一系列满足约束条件 ( 18 − 19 ) (18-19) (1819) α i \alpha_i αi 构成的集合。接下来,假设我们要保存固定的 α 2 , . . . , α m \alpha_2, ..., \alpha_m α2,...,αm 的值,然后进行一步坐标上升,重新优化对应 α 1 \alpha_1 α1的目标值(re-optimize the objective with respect to α 1 \alpha_1 α1)。这样能解出来么?很不幸,不能,因为约束条件 ( 19 ) (19) (19) 就意味着:

α 1 y ( 1 ) = − ∑ i = 2 m α i y ( i ) \alpha_1y^{(1)}=-\sum^m_{i=2}\alpha_iy^{(i)} α1y(1)=i=2mαiy(i)

或者,也可以对等号两侧同时乘以 y ( 1 ) y^{(1)} y(1) ,然后会得到下面的等式,与上面的等式是等价的:

α 1 = − y ( 1 ) ∑ i = 2 m α i y ( i ) \alpha_1=-y^{(1)}\sum^m_{i=2}\alpha_iy^{(i)} α1=y(1)i=2mαiy(i)

(这一步用到了一个定理,即 y ( 1 ) ∈ − 1 , 1 y^{(1)} \in {-1, 1} y(1)1,1,所以 ( y ( 1 ) ) 2 = 1 (y^{(1)})^2 = 1 (y(1))2=1)可见 α 1 \alpha_1 α1 是由其他的 α i \alpha_i αi 决定的,这样如果我们保存固定的 α 2 , . . . , α m \alpha_2, ..., \alpha_m α2,...,αm 的值,那就根本没办法对 α 1 \alpha_1 α1 的值进行任何修改了,否则不能满足优化问题中的约束条件 ( 19 ) (19) (19) 了。

所以,如果我们要对 α i \alpha_i αi 当中的一些值进行更新的话,就必须至少同时更新两个,这样才能保证满足约束条件。基于这个情况就衍生出了 SMO 算法,简单来说内容如下所示:

重复直到收敛 {

  1. 选择某一对的 α i \alpha_i αi α j \alpha_j αj 以在下次迭代中进行更新 (这里需要选择那种能朝全局最大值方向最大程度靠近的一对值)。
  2. 使用对应的 α i \alpha_i αi α j \alpha_j αj 来重新优化(Re-optimize) W ( α ) W(\alpha) W(α) ,而保持其他的 α k \alpha_k αk 值固定( k ≠ i , j k\neq i,j k=i,j)。
    }

我们可以检查在某些收敛公差参数 tol 范围内,KKT 对偶互补条件能否被满足,以此来检验这个算法的收敛性。这里的 tol 是收敛公差参数(convergence tolerance parameter),通常都是设定到大概 0.01 0.01 0.01 0.001 0.001 0.001。(更多细节内容参考文献以及伪代码。)

SMO 算法有效的一个关键原因是对 α i , α j \alpha_i, \alpha_j αi,αj 的更新计算起来很有效率。接下来咱们简要介绍一下推导高效率更新的大概思路。

假设我们现在有某些 α i \alpha_i αi 满足约束条件 ( 18 − 19 ) (18-19) (1819),如果我们决定要保存固定的 α 3 , . . . , α m \alpha_3, ..., \alpha_m α3,...,αm 值,然后要使用这组 α 1 \alpha_1 α1 α 2 \alpha_2 α2 来重新优化 W ( α 1 , α 2 , . . . , α m ) W (\alpha_1, \alpha_2, ..., \alpha_m) W(α1,α2,...,αm) ,这样成对更新也是为了满足约束条件。根据约束条件 ( 19 ) (19) (19),可以得到:

α 1 y ( 1 ) + α 2 y ( 2 ) = − ∑ i = 3 m α i y ( i ) \alpha_1y^{(1)} + \alpha_2y^{(2)} = -\sum^m_{i=3}\alpha_iy^{(i)} α1y(1)+α2y(2)=i=3mαiy(i)

等号右边的值是固定的,因为我们已经固定了 α 3 , . . . , α m \alpha_3, ..., \alpha_m α3,...,αm 的值,所以就可以把等号右边的项目简写成一个常数 ζ \zeta ζ:

α 1 y ( 1 ) + α 2 y ( 2 ) = ζ (20) \alpha_1y^{(1)} + \alpha_2y^{(2)} = \zeta \qquad \text{(20)} α1y(1)+α2y(2)=ζ(20)

然后我们就可以用下面的图来表述对 α 1 \alpha_1 α1 α 2 \alpha_2 α2 的约束条件:
在这里插入图片描述
  根据约束条件 ( 18 ) (18) (18),可知 必须在图中 α 1 \alpha_1 α1 α 2 \alpha_2 α2 必须在 [ 0 , C ] × [ 0 , C ] [0, C] \times [0, C] [0,C]×[0,C] 所构成的方框中。另外图中还有一条线 α 1 y ( 1 ) + α 2 y ( 2 ) = ζ \alpha_1y^{(1)} +\alpha_2y^{(2)} = \zeta α1y(1)+α2y(2)=ζ,而我们知道 α 1 \alpha_1 α1 α 2 \alpha_2 α2 必须在这条线上。还需要注意的是,通过上面的约束条件,还能知道 L ≤ α 2 ≤ H L \leq \alpha_2 \leq H Lα2H;否则 ( α 1 , α 2 \alpha_1,\alpha_2 α1,α2) 就不能同时满足在方框内并位于直线上这两个约束条件。在上面这个例子中, L = 0 L = 0 L=0。但考虑到直线 α 1 y ( 1 ) + α 2 y ( 2 ) = ζ \alpha_1y^{(1)} + \alpha_2y^{(2)} = \zeta α1y(1)+α2y(2)=ζ 的形状方向,这个 L = 0 L = 0 L=0 还未必就是最佳的;不过通常来讲,保证 α 1 , α 2 \alpha_1, \alpha_2 α1,α2 位于 [ 0 , C ] × [ 0 , C ] [0, C] \times [0, C] [0,C]×[0,C] 方框内的 α 2 \alpha_2 α2 可能的值,都会有一个下界 L L L 和一个上界 H H H

利用等式 ( 20 ) (20) (20),我们还可以把 α 1 \alpha_1 α1 写成 α 2 \alpha_2 α2 的函数的形式:

α 1 = ( ζ − α 2 y ( 2 ) ) y ( 1 ) \alpha_1=(\zeta-\alpha_2y^{(2)})y^{(1)} α1=(ζα2y(2))y(1)

(自己检查一下这个推导过程吧;这里还是用到了定理: y ( 1 ) ∈ − 1 , 1 y^{(1)} \in {-1, 1} y(1)1,1,所以 ( y ( 1 ) ) 2 = 1 (y^{(1)})^2 = 1 (y(1))2=1。)所以目标函数 W ( α ) W(\alpha) W(α) 就可以写成:
W ( α 1 , α 2 , . . . , α m ) = W ( ( ζ − α 2 y ( 2 ) ) y ( 1 ) , α 2 , . . . , α m ) W(\alpha_1,\alpha_2,...,\alpha_m)=W((\zeta-\alpha_2y^{(2)})y^{(1),\alpha_2,...,\alpha_m}) W(α1,α2,...,αm)=W((ζα2y(2))y(1),α2,...,αm)

α 3 , . . . , α m \alpha_3, ..., \alpha_m α3,...,αm 当做常量,你就能证明上面这个函数其实只是一个关于 α 2 \alpha_2 α2 的二次函数。也就是说,其实也可以写成 a α 2 2 + b α 2 + c a\alpha_2^2 + b\alpha_2 + c aα22+bα2+c 的形式,其中的 a , b , c a, b, c a,b,c 参数。如果我们暂时忽略掉方框约束条件(18)(也就是说 L ≤ α 2 ≤ H ) L \leq \alpha_2 \leq H) Lα2H),那就很容易通过使导数为零来找出此二次函数的最大值,继而进行求解。我们设 α 2 n e w , u n c l i p p e d \alpha_2^{new, unclipped} α2new,unclipped 表示为 α \alpha α 的结果值。你需要自己证明,如果我们要使关于 α 2 \alpha_2 α2 的函数 W W W取最大值,而又受到方框约束条件的限制,那么就可以把 α 2 n e w , u n c l i p p e d \alpha_2^{new, unclipped} α2new,unclipped的值“粘贴”到 [ L , H ] [L, H] [L,H] 这个间隔内,这样来找到最优值结果,就得到了:
在这里插入图片描述
  最终,找到了 α 2 n e w \alpha_2^{new} α2new 之后,就可以利用等式 ( 20 ) (20) (20)来代回这个结果,就能得到 α 1 n e w \alpha_1^{new} α1new 的最优值。
  此外还有一些其他的细节,也都挺简单,不过这里就不讲了,你自己去读一下 Platt 的论文吧:一个是用于对后续用于更新的 α i , α j \alpha_i, \alpha_j αi,αj 启发式选择; 另一个是如何在 SMO算法 运行的同时来对 b b b 进行更新。

2 SMO算法步骤

在这里插入图片描述在这里插入图片描述

3 总结

(1) α 1 \alpha_1 α1 α 2 \alpha_2 α2的选择。

  1. 第1个变量 α 1 \alpha_1 α1的选择要尽量选择违背KKT条件最严重的点。我的理解是,先遍历所有满足 0 < a i < C 0<a_i<C 0<ai<C的样本点,也就是间隔上的支持向量点,然后判断是否满足 y i g ( x i ) = 1 y_ig(x_i)=1 yig(xi)=1,可能正的支持向量点在负的分割线上,此时 y i g ( x i ) = − 1 y_ig(x_i)=-1 yig(xi)=1。找到不能满足KKT条件的支持向量。 g ( x ) = w ∗ ⋅ ϕ ( x ) + b = ∑ j = 1 m α j ∗ y j K ( x , x j ) + b ∗ g(x)=w^*·\phi(x)+b=\sum\limits_{j = 1}^m {\alpha _j^*} {y_j}K\left( {x,{x_j}} \right) + {b^*} g(x)=wϕ(x)+b=j=1mαjyjK(x,xj)+b
  2. 在选择 α 2 \alpha_2 α2时,要确定 E 1 E_1 E1 E 1 E_1 E1是函数 g ( x ) g(x) g(x)对结点 x 1 x_1 x1的预测值与真实的输入值 y 1 y_1 y1之差 E 1 = g ( x 1 ) − y 1 E_1=g(x_1)-y_1 E1=g(x1)y1。我们的目标是使其 ∣ E 1 − E 2 ∣ |E_1-E_2| E1E2最大,因 α 1 \alpha_1 α1已定, E 1 E_1 E1也确定了,如果 E 1 E_1 E1为正,则在样本点中找到最小的 E i E_i Ei作为 E 2 E_2 E2,如果 E 1 E_1 E1为负,则在样本点中找到最大的 E i E_i Ei作为 E 2 E_2 E2,进而确定了 α 2 \alpha_2 α2

(3)SMO算法是支持向量机学习的一种快速算法, 其特点是不断地将原二次规划问题分解为只有两个变量的二次规划子问题,并对子问题进行解析求解,直到所有变量满足KKT条件为止。这样通过启发式的方法得到原二次规划问题的最优解。因为子问题有解析解,所以每次计算子问题都很快,虽然计算子问题次数很多,但在总体上还是高效的。

参考资料:
1 https://www.cnblogs.com/pinard/p/6111471.html
2 chrome-extension://ibllepbpahcoppkjjllbabhnigcbffpi/http://cs229.stanford.edu/notes2019fall/cs229-notes3.pdf
3 李航《统计学习方法》

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/194146
推荐阅读
相关标签
  

闽ICP备14008679号