当前位置:   article > 正文

【机器学习】SVM算法

svm算法

 

目录

什么是SVM 

 SVM 基本概念

SVM相关问题 

SVM算法原理

点到超平面的距离公式

最大间隔的优化模型

松弛变量

核函数:线性不可分—高维可分

SVM实现对鸢尾花数据集的二分类 

数据集详情

SVM算法svm.py

测试模型main.py

运行结果

 SVM总结


什么是SVM 

        SVM (support vector machines)即支持向量机。它是一种二分类模型,它将实例的特征向量映射为空间中的一些点,SVM 的目的就是想要画出一条线,以 “最好地” 区分这两类点,以至如果以后有了新的点,这条线也能做出很好的分类。SVM 适合中小型数据样本、非线性、高维的分类问题。                                                                                                                                                                                                                                    SVM 最早是由 Vladimir N. Vapnik 和 Alexey Ya. Chervonenkis 在1963年提出,目前的版本(soft margin)是由 Corinna Cortes 和 Vapnik 在1993年提出,并在1995年发表。深度学习(2012)出现之前,SVM 被认为机器学习中近十几年来最成功,表现最好的算法。

 SVM 基本概念

        将实例的特征向量(以二维为例)映射为空间中的一些点,如下图的实心点和空心点,它们属于不同的两类。SVM 的目的就是想要画出一条线,以“最好地”区分这两类点,以至如果以后有了新的点,这条线也能做出很好的分类。

SVM相关问题 

能够画出多少条线对样本点进行区分?

答:线是有无数条可以画的,区别就在于效果好不好,每条线都可以叫做一个划分超平面。比如上面的绿线就不好,蓝线还凑合,红线看起来就比较好。我们所希望找到的这条效果最好的线就是具有 “最大间隔的划分超平面”。

为什么要叫作“超平面”呢?

答:因为样本的特征很可能是高维的,此时样本空间的划分就不是一条线了。

画线的标准是什么?/ 什么才叫这条线的效果好?/ 哪里好?

答:SVM 将会寻找可以区分两个类别并且能使间隔(margin)最大的划分超平面。比较好的划分超平面,样本局部扰动时对它的影响最小、产生的分类结果最鲁棒、对未见示例的泛化能力最强。

间隔(margin)是什么?

答:对于任意一个超平面,其两侧数据点都距离它有一个最小距离(垂直距离),这两个最小距离的和就是间隔。比如下图中两条虚线构成的带状区域就是 margin,虚线是由距离中央实线最近的两个点所确定出来的(也就是由支持向量决定)。但此时 margin 比较小,如果用第二种方式画,margin 明显变大也更接近我们的目标。
                                

 为什么要让 margin 尽量大?

答:因为大 margin 犯错的几率比较小,也就是更鲁棒啦。

支持向量是什么?

答:从上图可以看出,虚线上的点到划分超平面的距离都是一样的,实际上只有这几个点共同确定了超平面的位置,因此被称作 “支持向量(support vectors)”,“支持向量机” 也是由此来的。

SVM算法原理

点到超平面的距离公式

         既然这样的直线是存在的,那么我们怎样寻找出这样的直线呢?与二维空间类似,超平面的方程也可以写成一下形式:

                                        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

         有了超平面的表达式之后之后,我们就可以计算样本点到平面的距离了。假设为样本的中的一个点,其中表示为第个特征变量。那么该点到超平面的距离就可以用如下公式进行计算:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

 其中||W||为超平面的范数,常数b类似于直线方程中的截距。

最大间隔的优化模型

        现在我们已经知道了如何去求数据点到超平面的距离,在超平面确定的情况下,我们就能够找出所有支持向量,然后计算出间隔margin。每一个超平面都对应着一个margin,我们的目标就是找出所有margin中最大的那个值对应的超平面。因此用数学语言描述就是确定w、b使得margin最大。这是一个优化问题其目标函数可以写成 :
        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

        其中y表示数据点的标签,且其为-1或1。距离用计算,这是就能体会出-1和1的好处了。如果数据点在平面的正方向(即+1类)那么是一个正数,而当数据点在平面的负方向时(即-1类),依然是一个正数,这样就能够保证始终大于零了。注意到当w和b等比例放大时,d的结果是不会改变的。因此我们可以令所有支持向量的u为1,而其他点的u大1这是可以办通过调节w和b求到的。因此上面的问题可以简化为: 

                                                                                 

 为了后面计算的方便,我们将目标函数等价替换为:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

 这是一个有约束条件的优化问题,通常我们可以用拉格朗日乘子法来求解,应用拉格朗日乘子法如下:

 ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​            公式1

 求L关于求偏导数得:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​                                公式2

 将公式2代入到公式1中化简得:

 ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

  该对偶问题的KKT条件为:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​  

   到此,似乎问题就能够完美地解决了。但是这里有个假设:数据必须是百分之百可分的。但是实际中的数据几乎都不那么“干净”,或多或少都会存在一些噪点。为此下面我们将引入了松弛变量来解决这种问题。

松弛变量

         由上一节的分析我们知道实际中很多样本数据都不能够用一个超平面把数据完全分开。如果数据集中存在噪点的话,那么在求超平的时候就会出现很大问题。从图三中课看出其中一个蓝点偏差太大,如果把它作为支持向量的话所求出来的margin就会比不算入它时要小得多。更糟糕的情况是如果这个蓝点落在了红点之间那么就找不出超平面了。

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​​​​​​​​

 因此引入一个松弛变量ξ来允许一些数据可以处于分隔面错误的一侧。这时新的约束条件变为:

 ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

 式中ξi的含义为允许第i个数据点允许偏离的间隔。如果让ξ任意大的话,那么任意的超平面都是符合条件的了。所以在原有目标的基础之上,我们也尽可能的让ξ的总量也尽可能地小。所以新的目标函数变为:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​         

 其中的C是用于控制“最大化间隔”和“保证大部分的点的函数间隔都小于1”这两个目标的权重。将上述模型完整的写下来就是:

 ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

新的拉格朗日函数变为:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​         

 接下来将拉格朗日函数转化为其对偶函数,首先对分别求ξ的偏导,并令其为0,结果如下:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

代入原式化简之后得到和原来一样的目标函数:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​         

但是由于我们得到,因此有所以对偶问题写成: 

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

 经过添加松弛变量的方法,我们现在能够解决数据更加混乱的问题。通过修改参数C,我们可以得到不同的结果而C的大小到底取多少比较合适,需要根据实际问题进行调节。 

核函数:线性不可分—高维可分

 

SVM实现对鸢尾花数据集的二分类 

数据集详情

鸢尾花(iris)数据集, 数据集内包含 3 类共 150 条记录,每类各 50 个数据, 每条记录都有 4 项特征:花萼长度、花萼宽度、花瓣长度、花瓣宽度,可以通过这4个特征预测鸢尾花卉属于(iris-setosa, iris-versicolour, iris-virginica)中的哪一品种。 这里只取前100条记录,两项特征,两个类别。

SVM算法svm.py

  1. import numpy as np
  2. import pandas as pd
  3. from sklearn.datasets import load_iris
  4. from sklearn.model_selection import train_test_split
  5. def create_data():
  6. iris = load_iris()
  7. df = pd.DataFrame(iris.data, columns=iris.feature_names)
  8. df['label'] = iris.target
  9. df.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label']
  10. data = np.array(df.iloc[:100, [0, 1, -1]])
  11. for i in range(len(data)):
  12. if data[i,-1] == 0:
  13. data[i,-1] = -1
  14. return data[:,:2], data[:,-1]
  15. #使用RBF(Radial basis function)核函数处理
  16. def K(x,z,sigma=1.5):
  17. return np.exp(np.dot((x-z),(x-z).T)/-(2*sigma**2))
  18. #对应课本147页的g(x_i),该函数助于验证KKT条件
  19. def g(i,x,y,alpha,b):
  20. sum=b
  21. for j in range(len(y)):
  22. sum+=alpha[j]*y[j]*K(x[i],x[j])
  23. return sum
  24. #验证第i个样本点是否满足KKT条件
  25. def isKKT(alpha,i,x,y,b,C):
  26. if alpha[i]==0 and y[i]*g(i,x,y,alpha,b)>=1:
  27. return True
  28. elif alpha[i]==C and y[i]*g(i,x,y,alpha,b)<=1:
  29. return True
  30. elif alpha[i]>0 and alpha[i]<C and y[i]*g(i,x,y,alpha,b)==1:
  31. return True
  32. else:
  33. return False
  34. #验证第i个样本点违反KKT条件的程度。由于KKT条件和y_i*g(x_i)与1的不等式有关
  35. #因此计算y_i*g(x_i)与1之间差值的绝对值作为衡量违反程度的标准
  36. def vioKKT(alpha,i,x,y,b):
  37. return abs(y[i]*g(i,x,y,alpha,b)-1)
  38. #在数组x中找到值为a的元素第一次出现的位置
  39. def findindex(x,a):
  40. for i in range(len(x)):
  41. if x[i]==a:
  42. return i
  43. #某个样本点分类误差函数
  44. def E(w,b,x_k,y_k):
  45. predi_k=int(np.sign(np.dot(w,x_k.T)+b))
  46. return predi_k-y_k
  47. #计算样本点与分割直线的距离
  48. def distance_count(x,w,b):
  49. return abs(w[0]*x[0]+w[1]*x[1]+b) / np.sqrt(w[0]**2 + w[1]**2)

测试模型main.py

  1. from functions import *
  2. from numpy import *
  3. from random import *
  4. from matplotlib import pyplot as plt
  5. def train(C=1.0):
  6. #获得数据集
  7. x,y=create_data()
  8. #设定迭代次数为100次
  9. iter=100
  10. #样本容量也就是标签的个数
  11. N=len(y)
  12. #alpha的初始值取全0
  13. alpha=zeros(len(y))
  14. #设置i,j的初始值(对应alpha1和alpha2)
  15. i,j=randint(0,N-1),randint(0,N-1)
  16. #保证i≠j
  17. while i==j:
  18. i=randint(0,N-1)
  19. for k in range(iter):
  20. #x的尺寸为一个1×2行向量
  21. x_i,x_j=x[i],x[j]
  22. #y的取值为+1或-1
  23. y_i,y_j=y[i],y[j]
  24. #计算ita,为计算a2_newunc做准备
  25. ita=K(x_i,x_i)+K(x_j,x_j)-2*K(x_i,x_j)
  26. if ita==0:
  27. continue
  28. #计算分割平面参数w与b
  29. #x:100×2矩阵,w:1×2矩阵
  30. #由于y-dot(w,x.T)是个与y等长的行向量,取其各元素平均值
  31. w=dot(alpha*y,x)
  32. b=mean(y-dot(w,x.T))
  33. #计算误差E1和E2
  34. E_i=E(w,b,x_i,y_i)
  35. E_j=E(w,b,x_j,y_j)
  36. #计算a2_ewunc
  37. a1_old=alpha[i]
  38. a2_old=alpha[j]
  39. a2_newunc=a2_old+y_j*(E_i-E_j)/ita
  40. #计算L与H
  41. L,H=0.0,0.0
  42. if y_i!=y_j:
  43. L=max(0,a2_old-a1_old)
  44. H=min(C,C+a2_old-a1_old)
  45. elif y_i==y_j:
  46. L=max(0,a2_old+a1_old-C)
  47. H=min(C,a2_old+a1_old)
  48. #计算剪辑后a2_new与a1_new的值
  49. a2_new=max(L,min(H,a2_newunc))
  50. a1_new=a1_old+y_i*y_j*(a2_old-a2_new)
  51. #更新alpha
  52. alpha[i],alpha[j]=a1_new,a2_new
  53. #violation表示每个元素违反KKT条件的程度
  54. violation=zeros(N)
  55. #对每一个样本点检验KKT条件,在violation内记录每个样本点违反KKT的程度
  56. for k in range(N):
  57. if isKKT(alpha,k,x,y,b,C)==False:
  58. violation[k]=float(vioKKT(alpha,k,x,y,b))
  59. #如果没有违反KKT条件,则违反程度是0
  60. else:
  61. violation[k]=0.0
  62. #找到violation中违反程度最大的点,设定为i,对应alpha_1
  63. i=findindex(violation,max(violation))
  64. #这里设置j(对应alpha_2)为不等于i的随机数。
  65. #原本alpha_2的选取应该是令abs(E_i-E_k)最大的k值对应的alpha点
  66. #经过测试,在大多数情况下,abs(E_i-E_k)(1×100向量)的所有元素都是0
  67. #即预测每个元素都准确,每个元素的分类误差都是0,误差的差值也是0
  68. #只有少数情况下,会有一个误差差值不等于0
  69. #对于前一种情况,无所谓“最大的误差差值”(因为都是0),因此只能设置j为随机数
  70. #对于后一种情况,由于出现的次数少,并且那一个不为0的差值的元素出现的位置具有随机性
  71. #因此总是将j设定为随机数
  72. j=randint(0,N-1)
  73. while j==i:
  74. j = randint(0, N - 1)
  75. #计算最终(迭代100次)分割平面参数
  76. w = dot(alpha * y, x)
  77. b = mean(y - dot(w, x.T))
  78. draw_x, draw_y, draw_label = [], [], []
  79. #在散点图上标记样本点的位置,样本点第一个元素作为x坐标,第二个元素作为y坐标
  80. for p in x:
  81. draw_x.append(p[0])
  82. draw_y.append(p[1])
  83. #画散点图,其中支持向量呈现绿色,正类呈现红色,负类呈现蓝色
  84. #样本点离分割直线最近的为支持向量
  85. distance=zeros(len(y))
  86. for i in range(len(y)):
  87. distance[i]=distance_count(x[i],w,b)
  88. vector=findindex(distance,min(distance))
  89. for i in range(len(y)):
  90. if i==vector:
  91. draw_label.append('g')
  92. else:
  93. if y[i] > 0:
  94. draw_label.append('r')
  95. else:
  96. draw_label.append('b')
  97. plt.scatter(draw_x, draw_y, color=draw_label)
  98. plain_x = range(4, 8, 1)
  99. plain_y = []
  100. for i in plain_x:
  101. temp = double(-(w[0] * i + b) / w[1])
  102. plain_y.append(temp)
  103. plt.plot(plain_x, plain_y)
  104. #最终绘图
  105. plt.savefig('SMO.jpg')
  106. plt.show()
  107. if __name__ == '__main__':
  108. train()

运行结果

 

 SVM总结

  • 支持向量机(SVM)是一种有监督学习算法,不仅可以用于分类问题,也可用于回归问题
  • 支持向量机理论的优点:对于含有大量特征属性的小样本有很强的鲁棒性、对于简单和复杂的分类模型都有很强的学习能力、如果采用复杂的数学模型可以避免过拟合现象
  • 训练好的模型的算法复杂度是由支持向量的个数决定的,而不是由数据的维度决定的。所以 SVM 不太容易产生 overfitting。
  • SVM 训练出来的模型完全依赖于支持向量,即使训练集里面所有非支持向量的点都被去除,重复训练过程,结果仍然会得到完全一样的模型。
  • 一个 SVM 如果训练得出的支持向量个数比较少,那么SVM 训练出的模型比较容易被泛化。
  • 由于满⾜KKT条件,⽀持向量机的优化问题通常可以转换为对偶问题求解。
  • 通过引入松弛变量,我们可以训练得到软约束的⽀持向量机。
  • 可以通过使用核函数让⽀持向量机处理线性不可分数据。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/140934
推荐阅读
相关标签
  

闽ICP备14008679号