当前位置:   article > 正文

KNN算法原理和代码详解_knn.predict

knn.predict

原理

 有这样一条河流like that,河流的左边是rich 人家,河流的右边是poor 人家,这时新搬来一家小甲,这个算法是看小甲是有钱人家还是没钱人家。

要解决这个问题,那么就可以说立着他最近的几个人家是富人多还是穷人多就可以判别了,K户人家,最近距离就是欧氏距离或者曼哈顿距离,切比雪夫距离。

这是欧氏距离,在中学都有学过。

优缺点

advantage: 显而易见的简单以实现,而且对于边界不规则的数据效果较好

disadvantage: 只适合小的数据集,数据不平衡就没法用了肯定就难受了,数据必须标准化因为非富有即贫穷没有中产阶级这一说

代码

  1. from sklearn import datasets
  2. from sklearn.neighbors import KNeighborsClassifier
  3. import numpy as np
  4. np.random.seed(0)#设置随机种子
  5. iris=datasets.load_iris()#获取数据
  6. iris_x=iris.data#数据部分
  7. iris_y=iris.target#类别区分部分
  8. randomarr=np.random.permutation(len(iris_x))
  9. iris_x_train=iris_x[randomarr[:-10]]#训练集数据
  10. iris_y_train=iris_y[randomarr[:-10]]#训练集标签分类
  11. iris_x_test=iris_x[randomarr[-10:]]#测试集数据
  12. iris_y_test=iris_y[randomarr[-10:]]#测试集标签
  13. knn=KNeighborsClassifier()#定义一个knn对象
  14. knn.fit(iris_x_train,iris_y_train)#调用训练方法
  15. iris_y_predict=knn.predict(iris_x_test)#调用预测方法
  16. probility=knn.predict_proba(iris_x_test)## 计算个测试样本预测的概率值这里我们没有用概率值,但是在实际工作中可能会参考概率值来进行最后结果的筛选,而不是直接使用给出的预测标签
  17. neighborpoint=knn.kneighbors([iris_x_test[-1]],5)# 计算与最后一个测试样本距离最近的5个点,返回的是这些样本的序号组成的数组
  18. score=knn.score(iris_x_test,iris_y_test,sample_weight=None)# 调用该对象的打分方法,计算出准确率
  19. print('iris_y_pridict=')
  20. print(iris_y_predict)
  21. # 输出测试结果
  22. print('iris_y_test=')
  23. # 输出原始测试数据集的正确标签,以方便对比
  24. print(iris_y_test)
  25. print('Accuracy',score)

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/801282
推荐阅读
相关标签
  

闽ICP备14008679号