当前位置:   article > 正文

支持向量机+sklearn绘制超平面_尝试使用不同的超参数c,测试模型性能。画出出分离超平面、间隔边界及支持向量。

尝试使用不同的超参数c,测试模型性能。画出出分离超平面、间隔边界及支持向量。

1.快速了解SVM

支持向量机(support vector machines,SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;而且SVM还支持核技巧,能够对非线形的数据进行分类,其实就是将非线形问题变换为线性问题,通过解变换后的线性问题来得到原来非线形问题的解。

举个例子来说明支持向量机是来干什么的吧!

将实例的特征向量(以二维为例)映射为空间中的一些点,就是如下图的圆心点和‘x’,它们属于不同的两类。那么SVM的目的就是想要画出一条线,以“最好地”区分这两类点,以至如果以后有了新的点,这条线也能做出很好的分类。

image-20200911211014780

从图中我们可以看出能够画出多条线对样本点进行区分,区别就在于效果好不好。比如粉色线就不好,绿色还凑合,黑色的线看起来就比较好。我们希望找到这条效果最好的线叫作划分超平面。

看官老爷们可能会问画这条线的标准是什么?

SVM将会寻找可以区分两个类别并且能够使间隔(margin)最大的超平面,即划分超平面。

注:间隔就是某一条线距离它两侧最近的点的距离之和。

2.SVM定义与公式建立

在样本空间中,划分超平面可以定义为:

ω T χ \omega^T\chi ωTχ + b = 0 ( 2.1)

其中 ω \omega ω = ( ω 1 ; ω 2 ; . . . . ω d \omega_1;\omega_2;....\omega_d ω1;ω2;....ωd)为法向量,决定了超平面的方向;b为位移项,决定了超平面与原点之间的距离。很明显划分超平面是可被法向量 ω \omega ω 和位移 b 确定。

将超平面记为( ω \omega ω, b),样本空间中任意点 χ \chi χ 到超平面( ω \omega ω, b)的距离可写为:

γ \gamma γ = ∣ ω T + b ∣ ∣ ∣ ω ∣ ∣ \frac{|\omega^T + b|}{||\omega||} ωωT+b ( 2.2)

假设超平面( ω \omega ω, b)能够将训练样本正确分类,即对于任何样本,若 y i y_i yi = +1,则有 ω T χ i + b > 0 \omega^T\chi_i + b >0 ωTχi+b>0,若 y i y_i yi= -1,则有 ω T χ i + b < 0 \omega^T\chi_i + b < 0 ωTχi+b<0. 令

ω T χ i + b > = + 1 , y i = + 1 \omega^T\chi_i + b >= +1, y_i = +1 ωTχi+b>=+1,yi=+1;

ω T χ i + b < = − 1 , y i = − 1 \omega^T\chi_i + b <= -1, y_i = -1 ωTχi+b<=1,yi=1; ( 2.3 )

如下图所示,距离超平面最近的几个样本点使得公式(2.3)的等号成立,这个个样本点被称为 “支持向量”(support vector),两个异类支持向量到超平面的距离之和为

γ = 2 ∣ ∣ ω ∣ ∣ \gamma = \frac{2}{||\omega||} γ=ω2 ( 2.4 )

image-20200912101041163

第一小节我们讲到 SVM 就是要找到区分两个类别并使两个异类支持向量到超平面的距离之和最大,也就是要找到满足式(2.3)中约束的参数 ω \omega ω 和 b ,使得 γ \gamma γ 最大,即

m a x w , b 2 ∣ ∣ w ∣ ∣ max_{w,b} \frac{2}{||w||} maxw,bw2. ( 2.5 )

​ s.t. y i ( ω T χ i + b ) > = 1 , i = 1 , 2 , . . . , m . y_i( \omega^T\chi_i + b) >= 1, i = 1,2,...,m. yi(ωTχi+b)>=1,i=1,2,...,m.

为了使 2 ∣ ∣ w ∣ ∣ \frac{2}{||w||} w2最大,这等价于最小化 ∣ ∣ w ∣ ∣ 2 ||w||^2 w2,于是式(2.5)可以重写为

m a x w , b 1 2 ∣ ∣ w ∣ ∣ 2 max_{w,b}\frac{1}{2}||w||^2 maxw,b21w2. ( 2.6 )

​ s.t. y i ( ω T χ i + b ) > = 1 , i = 1 , 2 , . . . , m . y_i( \omega^T\chi_i + b) >= 1, i = 1,2,...,m. yi(ωTχi+b)>=1,i=1,2,...,m.

这就是支持向量机(Support Vector Machine,SVM)的基本型.

3. 核函数

支持向量机通过某非线性变换 ∂( x ),将输入空间映射到高维特征空间。特征空间的维数可能非常高。如果支持向量机的求解只用到内积运算,而在低维输入空间又存在某个函数 K ( x , x ‘ ) K(x,x^`) K(x,x),它恰好等于在高维空间中这个内积,K( x, x′) =<φ( x) ⋅φ( x′) >。那么支持向量机就不用计算复杂的非线性变换,而由这个函数 K(x, x′) 直接得到非线性变换的内积,使大大简化了计算。这样的函数 K(x, x′) 称为核函数。

3.1 常用的核函数(kernel functions)

线性核

k ( x i , x j ) = x i T x j k(x_i , x_j) = x_{i}^Tx_j k(xi,xj)=xiTxj

多项式核

k ( x i , x j ) = ( x i T x j ) d k(x_i , x_j) = (x_{i}^Tx_j)^d k(xi,xj)=(xiTxj)d d ≥ 1为多项式的次数

高斯核

k ( x i , x j ) = e x p ( − ∣ ∣ x i − x j ∣ ∣ 2 2 δ 2 ) k(x_i , x_j) = exp (-\frac{||x_i-x_j||^2}{2\delta^2}) k(xi,xj)=exp(2δ2xixj2) δ \delta δ > 0为高斯核的带宽(width)

拉普拉斯核

k ( x i , x j ) = e x p ( − ∣ ∣ x i − x j ∣ ∣ δ ) k(x_i , x_j) = exp (-\frac{||x_i-x_j||}{\delta}) k(xi,xj)=exp(δxixj) δ \delta δ > 0

Sigmoid 核

k ( x i , x j ) = t a n h ( β x i T x j + θ ) k(x_i , x_j) = tanh(\beta x_{i}^Tx_j + \theta) k(xi,xj)=tanh(βxiTxj+θ) tanh为双曲线正切函数, β > 0 , θ < 0 \beta > 0 , \theta<0 β>0,θ<0

核函数那么多,那么一般如何选择?

  1. 尝试不同的 kernel ,根据结果准确度而定,尝试不同的 kernel。

  2. 根据先验知识,比如图像分类,通常用RBF(高斯核),文字不使用RBF。

举个小例子来说明核函数吧!

假设两个向量 x = ( x 1 , x 2 , x 3 ) x=(x_1,x_2,x_3) x=(x1,x2,x3) , z = ( z 1 , z 2 , z 3 ) z=(z_1,z_2,z_3) z=(z1,z2,z3)

可以定义方程(Grim矩阵):

f ( x ) = ( x 1 x 1 , x 1 x 2 , x 1 x 3 , x 2 x 1 , x 2 x 2 , x 2 x 3 , x 3 x 1 , x 3 x 2 , x 3 x 3 ) f(x)=(x_1x_1,x_1x_2,x_1x_3,x_2x_1,x_2x_2,x_2x_3,x_3x_1,x_3x_2,x_3x_3) f(x)=(x1x1,x1x2,x1x3,x2x1,x2x2,x2x3,x3x1,x3x2,x3x3)

设函数为 K ( x , y ) = ( < x , z > ) 2 K(x,y)=(<x,z>)^2 K(x,y)=(<x,z>)2

假设 x = ( 1 , 2 , 3 ) , z = ( 4 , 5 , 6 ) x=(1,2,3),z=(4,5,6) x=(1,2,3),z=(4,5,6)

如果不使用核函数,直接求内积:

f ( x ) = ( 1 , 2 , 3 , 2 , 4 , 6 , 3 , 6 , 9 ) f(x) = (1,2,3,2,4,6,3,6,9) f(x)=(1,2,3,2,4,6,3,6,9)

f ( z ) = ( 16 , 20 , 24 , 20 , 25 , 30 , 24 , 30 , 36 ) f(z)=(16,20,24,20,25,30,24,30,36) f(z)=(16,20,24,20,25,30,24,30,36)

< f ( x ) , f ( z ) > = 16 + 40 + 72 + 40 + 100 + 180 + 72 + 180 + 324 = 1024 <f(x),f(z)>=16+40+72+40+100+180+72+180+324=1024 <f(x),f(z)>=16+40+72+40+100+180+72+180+324=1024

使用核函数:

k ( x , y ) = ( 4 , 10 , 18 ) 2 = 1024 k(x,y)=(4,10,18)^2=1024 k(x,y)=(4,10,18)2=1024

两种方法都可以得到同样的结果,但是使用kernel方法计算容易很多,在样本维度很高时这种方法会更加显示其优势。

4.SVM 应用实例

由于 SVM 算法本身的实现较为复杂,所以这里就不给出如何实现SVM的代码,采用 sklearn库来帮助我们学习SVM 的应用例子。

这里对sklearn画出超平面步骤做个说明

1)首先获取权重矩阵

weight = model.coef_[0]

打印结果如下image-20200912154703928

有两个值,分别是 w 0 和 w 1 w0 和 w1 w0w1,sklearn中对超平面的表示并不是 y = kx +b 这样的,而是把 x作为第一个特征 x0, y作为另一个特征x1,表示为:

w 0 x 0 + w 1 x 1 + b i a s = 0 w_0x_0 + w_1x_1+bias=0 w0x0+w1x1+bias=0

这样的好处在于如果有多组特征,方便扩展。在预测时,将待测的(x0,x1)带入上式,根据大于或者小于0即可判断类别。

2)bias的值可以使用model.intercept_即可获取

为了方便画图,我们可以通过移项转换为我们熟悉的斜截式:

y = − w 0 w 1 x − b i a s w 1 y=-\frac{w_0}{w_1}x-\frac{bias}{w1} y=w1w0xw1bias

import numpy as np
import pandas as pd
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt
from sklearn.svm import SVC

def create_data():
    iris = load_iris()
    df = pd.DataFrame(iris.data, columns=iris.feature_names)
    df['label'] = iris.target
    df.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label']
    data = np.array(df.iloc[:100, [0, 1, -1]])
    # 将label==0的实例赋值为-1
    for i in range(len(data)):
        if data[i, -1] == 0:
            data[i, -1] = -1
    return data[:, :-1], data[:, -1]


def SVM():
    x, y = create_data()
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
    model = SVC(kernel="linear")
    model.fit(x_train, y_train)

    precise = model.score(x_test, y_test)
    print(precise)
    # 画出散点图
    plt.scatter(x[:50, 0], x[:50, 1], label='0')
    plt.scatter(x[50:100, 0], x[50:100, 1], label='1')
    # 查看权重矩阵
    weight = model.coef_[0]
    #print(model.coef_)
    # 取出截距
    bias = model.intercept_[0]
    k = -weight[0] / weight[1]
    b = -bias / weight[1]
    # 获取支持向量
    support_vector = model.support_vectors_
    # 画出支持向量
    for i in support_vector:
        plt.scatter(i[0], i[1], marker=',', c='b')

    # 画出超平面
    xx = np.linspace(4, 7, 10)
    yy = k * xx + b
    plt.plot(xx, yy)
    plt.legend()
    plt.show()


if __name__ == '__main__':
    SVM()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
sklearn.svm.SVC
(C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False,tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=None,random_state=None)

参数:

C:C-SVC的惩罚参数C?默认值是1.0
C越大,相当于惩罚松弛变量,希望松弛变量接近0,即对误分类的惩罚增大,趋向于对训练集全分对的情况,这样对训练集测试时准确率很高,但泛化能力弱。C值小,对误分类的惩罚减小,允许容错,将他们当成噪声点,泛化能力较强。

kernel :核函数,默认是rbf,可以是‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’

– 线性:u'v

– 多项式:(gammau'v + coef0)^degree

– RBF函数:exp(-gamma|u-v|^2)

– sigmoid:tanh(gammau'v + coef0)

degree :多项式poly函数的维度,默认是3,选择其他核函数时会被忽略。
gamma : ‘rbf’,‘poly’ 和‘sigmoid’的核函数参数。默认是’auto’,则会选择1/n_features
coef0 :核函数的常数项。对于‘poly’和 ‘sigmoid’有用。
probability :是否采用概率估计?.默认为False
shrinking :是否采用shrinking heuristic方法,默认为true
tol :停止训练的误差值大小,默认为1e-3
cache_size :核函数cache缓存大小,默认为200
class_weight :类别的权重,字典形式传递。设置第几类的参数C为weight*C(C-SVC中的C)
verbose :允许冗余输出?
max_iter :最大迭代次数。-1为无限制。
decision_function_shape :‘ovo’, ‘ovr’ or None, default=None3
random_state :数据洗牌时的种子值,int值
主要调节的参数有:C、kernel、degree、gamma、coef0。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31

有收获给我点个赞吧!欢迎关注我的公众号《江大白玩AI》!

381599898216_.pic_hd

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/604989
推荐阅读
相关标签
  

闽ICP备14008679号