当前位置:   article > 正文

python代码实现支持向量机对鸢尾花分类_python支持向量机图像分类识别代码实现

python支持向量机图像分类识别代码实现

1、导入支持向量机模型,划分数据集

from sklearn import datasets
from sklearn import svm

iris=datasets.load_iris()
iris_x=iris.data
iris_y=iris.target
indices = np.random.permutation(len(iris_x))
iris_x_train = iris_x[indices[:-10]]
iris_y_train = iris_y[indices[:-10]]
iris_x_test = iris_x[indices[-10:]]
iris_y_test = iris_y[indices[-10:]]
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

2、训练模型

clf = svm.SVC(kernel = 'linear')
clf.fit(iris_x_train,iris_y_train)
  • 1
  • 2

线性核函数 (‘linear’):
应用场景:适用于线性可分的情况,当数据集在特征空间中是线性可分布的时候,线性核函数是首选。
示例应用:文本分类、简单图像分类等。
多项式核函数 (‘poly’):
应用场景:适用于非线性但仍然具有明显分界的情况,可通过调整多项式的次数来控制模型的复杂度。
示例应用:人脸识别、手写数字识别等。 径向基函数
(RBF) 核函数 (‘rbf’):
应用场景:适用于非线性且数据分布复杂的情况,RBF 核函数具有很强的拟合能力,能够处理各种形状的数据分布。
示例应用:生物信息学、金融风险管理等。
Sigmoid 核函数 (‘sigmoid’):
应用场景:适用于二元分类问题,但一般情况下不推荐使用,因为它对模型的影响较小。
示例应用:简单的二分类问题。

3、为测试数据集分类

iris_y_predict = clf.predict(iris_x_test)
score=clf.score(iris_x_test,iris_y_test,sample_weight=None)

print('iris_y_predict = ')
print(iris_y_predict)
print('iris_y_test = ')
print(iris_y_test)
print('Accuracy:',score)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
iris_y_predict = 
[1 2 1 0 0 0 2 1 2 0]
iris_y_test = 
[1 1 1 0 0 0 2 1 2 0]
Accuracy: 0.9
  • 1
  • 2
  • 3
  • 4
  • 5

算法的优点
1、有严格的数学理论支持,可解释性强。 SVM 所获得的结果是全局最优解而不是局部最优解,很多算法为了降低复杂性只给出了一个局部最优解,比如我们前面提到的 “决策树算法”,而 SVM 的最优化求解所获得的一定是全局最优解。
2、算法的鲁棒性很好。 由于计算主要依赖于关键的支持向量,所以只要支持向量没有变化,样本发生一些变化对算法没有什么影响。

算法的缺点
1、训练所需要的资源很大。 由于运算量与存储量都很高,SVM 训练的开销也是巨大的,因此支持向量机只适合比较小的样本量,比如几千条数据,当样本量太大时训练资源开销过大。
2、只能处理二分类问题。 经典的 SVM 算法十分简洁,正如上面的例子一样,画一条线分割两个类别,如果需要处理多类别的分类问题,需要使用一些组合手段。
3、模型预测时,预测时间与支持向量的个数成正比。 当支持向量的数量较大时,预测计算复杂度较
高。因此支持向量机目前只适合小批量样本的任务,无法适应百万甚至上亿样本的任务。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/747219
推荐阅读
相关标签
  

闽ICP备14008679号