当前位置:   article > 正文

机器学习_SVM支持向量机

机器学习_SVM支持向量机

引入:在面对线性可分时,即用一条直线就可以区分数据的时候,需要将直线放在距离数据点距离最大化的位置,这个过程需要寻找最大间隔,即为最优化问题。当数据点不能用一根直线区分——线性不可分,就需要用核函数将数据点映射到高维空间运算得到超平面进行区分。

一、基本原理

1、概念

解决二分类问题,通过寻找最优决策面来对数据进行分类。

如下图,当分类(a)中的数据点时,(b)和(c)两种都能够正确分类,

但当数据点增加,(b)的分类结果明显好于(c)。显然,同一波数据有不同划分的决策面,但是需要让他的间隔最大从而找出最优决策面,即SVM的最优解。

2、重点名词解释

①超平面:将数据点划分为不同类别 —— 维度比当前空间维度低一维,eg二维数据下就是一条直线,三维空间内就是一个平面,n维数据就是n-1维。

②支持向量:位于间隔边界的数据点,即离分隔超平面最近的那些点。是最有可能被错误分类的数据点,直接影响超平面的位置和方向。

③最大间隔:距离是指支持向量到超平面的距离。SVM的目标不只是找到能够正确分类的超平面,还希望这个超平面能有最大间隔,从而让模型更具鲁棒性,不容易受噪声和异常点影响。

 3、核函数【针对线性不可分问题】

在解决如下图数据点线性不可分的情况下,映射到高维找到决策面。但是这里需要注意,他并不是在高维空间的数据点进行高维空间运算,核函数相当于一个小trick,通过实现在高维空间的效果下在原低维空间内进行运算,从而解决了高维空间内的计算成本。

二、SVM的数学建模

1)首先定义超平面为 w⋅x+b=0,则数据带你到超平面的距离为 \text{Distance}=\frac{|w\cdot x_i+b|}{||w||},而我们希望找到这样的超平面使得 y_i(w\cdot x_i+b)\geq1 —— 该表达式保证数据点位于超平面的正确一侧。

2)目标函数的优化问题:求解间隔最大化

\begin{aligned}\arg\max_{\boldsymbol{w},b}&\frac{2}{\|\boldsymbol{w}\|}\\\mathrm{s.t.}&y_i(\boldsymbol{w}^\top\boldsymbol{x}_i+b)\geq1, i=1,2,\ldots,m.\end{aligned} 

转化一下以下就是求解以下公式,该公式就是SVM的基本模型

  \begin{aligned}&\min_{w,b}\frac12||w||^2\\&\quad\mathrm{subject~to~}y_i(w\cdot x_i+b)\geq1,\forall i\end{aligned}

然后就是通过拉格朗日和对偶进行数学推导找到最优的w和b了,公式推导指路SVM公式推导

\max_{\alpha}\sum_{i=1}^{n}\alpha_{i}-\frac{1}{2}\sum_{i,j=1}^{n}\alpha_{i}\alpha_{j}y_{i}y_{j}\boldsymbol{x}_{i}^{\mathrm{T}}\boldsymbol{x}_{j}  &s.t.    \sum_{i=1}^n\alpha_iy_i=0 ,和  \alpha_{i}\geq0

因为所有的数据并不一定都是“干净”的(即可能存在噪声),因此在这里引入松弛变量 C,用于控制“最大化间隔”和“保证大部分点的函数间隔<1”的权重,允许有些数据点可以分错

约束条件变成 0<\alpha_i<C  和 \sum_{i=1}^n\alpha_iy_i=0

所以,SVM的主要工作就是求解这些 \alpha

三、SVM简单构造

1、准备数据

数据结构如下图

导入数据并进行可视化

  1. import matplotlib.pyplot as plt
  2. import numpy as np
  3. def loadDataSet(fileName):
  4. dataMat = []; labelMat = []
  5. fr = open(fileName)
  6. for line in fr.readlines(): #逐行读取,滤除空格等
  7. lineArr = line.strip().split('\t')
  8. dataMat.append([float(lineArr[0]), float(lineArr[1])]) #添加数据
  9. labelMat.append(float(lineArr[2])) #添加标签
  10. return dataMat,labelMat
  11. def showDataSet(dataMat, labelMat):
  12. data_plus = [] #正样本
  13. data_minus = [] #负样本
  14. for i in range(len(dataMat)):
  15. if labelMat[i] > 0:
  16. data_plus.append(dataMat[i])
  17. else:
  18. data_minus.append(dataMat[i])
  19. data_plus_np = np.array(data_plus) #转换为numpy矩阵
  20. data_minus_np = np.array(data_minus) #转换为numpy矩阵
  21. plt.scatter(np.transpose(data_plus_np)[0], np.transpose(data_plus_np)[1]) #正样本散点图
  22. plt.scatter(np.transpose(data_minus_np)[0], np.transpose(data_minus_np)[1]) #负样本散点图
  23. plt.show()
  24. if __name__ == '__main__':
  25. dataMat, labelMat = loadDataSet('testSet.txt')
  26. showDataSet(dataMat, labelMat)

2、SVM 函数定义

  1. class mySVM:
  2. def __init__(self, learning_rate=0.01, lambda_param=0.1, n_iters=1000):
  3. self.learning_rate = learning_rate
  4. self.lambda_param = lambda_param
  5. self.n_iters = n_iters
  6. self.w = None
  7. self.b = None
  8. def fit(self, X, y):
  9. n_samples, n_features = X.shape
  10. self.w = np.zeros(n_features)
  11. self.b = 0.0
  12. for _ in range(self.n_iters):
  13. linear_output = np.dot(X, self.w) - self.b
  14. errors = y - linear_output
  15. self.w -= self.learning_rate * (2 * self.lambda_param * self.w - np.dot(X.T, errors))
  16. self.b -= self.learning_rate * np.mean(errors)
  17. def predict(self, X):
  18. linear_output = np.dot(X, self.w) - self.b
  19. return np.sign(linear_output)
  20. def loss(self, X, y):
  21. linear_output = np.dot(X, self.w) - self.b
  22. hinge_loss = np.maximum(0, 1 - y * linear_output)
  23. reg_loss = self.lambda_param * np.linalg.norm(self.w)
  24. return np.mean(hinge_loss) + 0.5 * reg_loss

 3、绘制数据点和决策边界

  1. # 可视化数据点和决策边界
  2. def plot_show(X, y, svm):
  3. plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.coolwarm, s=20, edgecolor='k')
  4. # 创建一个网格
  5. x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
  6. y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
  7. xx, yy = np.meshgrid(np.linspace(x_min, x_max, 100),
  8. np.linspace(y_min, y_max, 100))
  9. # 计算决策边界,Z 是一个二维网格,表示每个点属于哪个类别
  10. Z = svm.predict(np.c_[xx.ravel(), yy.ravel()])
  11. Z = Z.reshape(xx.shape)
  12. # 绘制决策边界
  13. plt.contourf(xx, yy, Z, alpha=0.4, cmap=plt.cm.coolwarm)
  14. plt.contour(xx, yy, Z, colors='k', linestyles='-', levels=[0])
  15. plt.xlabel('Feature 1')
  16. plt.ylabel('Feature 2')
  17. plt.title('SVM Decision Boundary')
  18. plt.show()

4、结果展示

  1. # 主程序
  2. if __name__ == "__main__":
  3. fileName = 'testSet.txt'
  4. dataMat, labelMat = loadDataSet(fileName)
  5. # 实例化并训练SVM模型
  6. svm = mySVM(learning_rate=0.01, lambda_param=0.1, n_iters=1000)
  7. svm.fit(dataMat, labelMat)
  8. # 绘制决策边界
  9. plot_show(dataMat, labelMat, svm)

四、总结

上面用到的是线性SVM,但在实际应用中,需要处理更复杂的数据分布,例如使用核函数处理非线性可分的数据。此外,超参数的选择(如学习率、正则化参数和迭代次数)对模型性能有重要影响,还有松弛变量C对最后模型的训练效果也有很大影响(可能存在过拟合/欠拟合)

SVM的优缺点
  • 优点:高准确率,对高维数据有效等
  • 缺点:对核函数和参数选择敏感,计算复杂度高等

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/一键难忘520/article/detail/737704
推荐阅读
相关标签
  

闽ICP备14008679号