赞
踩
机器学习训练营——机器学习爱好者的自由交流空间(入群联系qq:2279055353)
支持向量分类的方法能被推广到解决回归问题,称为支持向量回归。由支持向量分类产生的模型仅依赖训练数据的子集,因为创建模型的代价函数并不考虑超过边界的训练点。类似地,由支持向量回归产生的模型仅依赖训练数据的子集,因为创建模型的代价函数忽略任何接近模型预测的训练数据。支持向量回归有三个不同的执行版本:SVR
, NuSVR
, LinearSVR
. LinearSVR执行速度比SVR要快,但只提供线性核。fit方法取X, y作为输入参数,这里,y取浮点值而不是分类的整数值。
from sklearn import svm
X = [[0, 0], [2, 2]]
y = [0.5, 2.5]
clf = svm.SVR()
clf.fit(X, y)
clf.predict([[1, 1]])
One-class SVM可以被用于异常检测(novelty detection), 即,给定一个样本集,检测该集的灵活边界,以便将新的数据点归类是否属于这个集合。类OneClassSVM
执行之。这是一个典型的无监督学习,所以fit方法只有一个数组X作为输入,并没有类标签。
可以使用以下的核函数:
linear: < x , x ′ > <x, x'> <x,x′>
polynomial: ( γ < x , x ′ > + r ) d (\gamma<x, x'>+r)^d (γ<x,x′>+r)d, d d d 由参数degree, r r r 由coef0指定
rbf: exp ( − γ ∥ x − x ′ ∥ 2 ) \exp(-\gamma\|x-x'\|^2) exp(−γ∥x−x′∥2), γ \gamma γ 由参数gamma指定,且必须是正的
sigmoid: tanh ( γ < x , x ′ > + r ) \tanh(\gamma<x, x'>+r) tanh(γ<x,x′>+r), r
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。