当前位置:   article > 正文

【机器学习】支持向量机(SVM)

【机器学习】支持向量机(SVM)

支持向量机(SVM)

1 背景信息

  1. 分类算法回顾

    • 决策树

    • 贝叶斯学习

      • 样本的属性可以是数值或非数值
      • 目标函数是连续的(概率)
    • K-近邻

      • 样本是空间(例如欧氏空间)中的点
      • 目标函数可以是连续的也可以是离散的
    • 支持向量机 (Support Vector Machine)

      • 样本是空间(例如欧氏空间)中的点
      • 目标函数可以是连续的也可以是离散的
  2. 背景信息

    当前版本的支持向量机大部分是由 Vapnik 和他的同事在 AT&T贝尔实验室 开发的

    支持向量机 (Support Vector Machine,SVM)是一个最大间隔分类器(Max Margin Classifier)

    最有效的监督学习方法之一,曾被作为文本处理方法的一个强基准模型(strong baseline)

2 线性支持向量机

  1. 符号函数
    y i = { + 1 , if  f ( x i , θ )  <0 − 1 , if  f ( x i , θ )  <0 y_i =

    {+1,if f(xi,θ) <01,if f(xi,θ) <0
    yi={+1,1,if f(xi,θ) <0if f(xi,θ) <0
    对一个测试样本 x x x,我们可以预测它的标签为 [ f ( x , θ ) ] [f(x,θ)] [f(x,θ)] f ( x , θ ) = 0 f(x,θ)=0 f(x,θ)=0​ 被称为分类超平面

  2. 线性分类器

    • 线性超平面

      f ( x , w , b ) = < x , w > + b = 0 f(x,w,b)=<x,w>+b=0 f(x,w,b)=<x,w>+b=0

      在线性可分的情况下,有无穷多个满足条件的超平面。

      image-20240206180617328

    • 线性分类器的间隔(Margin)

      在分类分界面两侧分别放置平行于分类超平面的一个超平面,移动超平面使其远离分类超平面

      当他们各自第一次碰到数据点时,他们之间的距离被称为线性分类器的间隔

      Margin(间隔):分界在碰到数据点之前可以达到的宽度

    • 最大间隔线性分类器——具有最大间隔的线形分类器

      支持向量:那些阻挡间隔继续扩大的数据点

      image-20240207011651499

    • 问题形式化

      形式化间隔,我们需要所有数据点满足
      y i ( < x i , w > + b ) ≥ 1 ,   ∀ i = 1 , . . . , N y_i(<x_i,w>+b)≥1,\ \forall i=1,...,N yi(<xi,w>+b)1, i=1,...,N
      image-20240207162957688

      分类超平面: < x , w > + b = 0 <x,w>+b=0 <x,w>+b=0,引入平行于分类超平面的两个额外超平面: < x , w > + b = ± 1 <x,w>+b=±1 <x,w>+b=±1

      间隔(margin):两个新的超平面( < x , w > + b = ± 1 <x,w>+b=±1 <x,w>+b=±1​)之间的距离。

      间隔的表达式:两个超平面到原点的距离之差的绝对值: ∣ ρ 1 − ρ 2 ∣ = 2 ∣ w ∣ |ρ_1-ρ_2|=\frac{2}{|w|} ρ1ρ2=w2

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/91070
推荐阅读
相关标签
  

闽ICP备14008679号