当前位置:   article > 正文

简述k-近邻(KNN)算法流程_knn算法步骤

knn算法步骤
一、算法流程

(1)收集数据:可以使用任何方法;

(2)准备数据:距离计算所需要的数值,最好是结构化的数据格式;

(3)分析数据:可以使用任何方法;

(4)训练算法:此步骤不适用于k-近邻算法;

(5)测试算法:计算错误率;

(6)使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法,判定输入数据分别属于哪个分类,最后应用,对计算出的分类执行后续的处理。

二、算法实施

对未知类别属性的数据集中的每个点依次执行以下操作:

(1)计算已知类别数据集中的点与当前点之间的距离;

(2)按照距离递增次序排序;

(3)选取与当前点距离最小的k个点;

(4)确定前k个点所在类别的出现频率;

(5)返回前k个点出现频率最高的类别作为当前点的预测分类。

三、代码详解

(python开发环境搭建,包括安装numpy,scipy,matplotlib等科学计算库的安装不再赘述,百度即可)

(1)进入python交互式开发环境,编写并保存如下代码,本文档中代码保存名为“KNN”;

  1. import numpy
  2. import operator
  3. from os import listdir
  4. from numpy import *
  1. #k-近邻算法
  2. def classify0(inX, dataSet, labels, k):
  3. # type: (object, object, object, object) -> object
  4. dataSetSize = dataSet.shape[0] #计算距离,使用欧氏距离。
  5. diffMat = numpy.tile(inX, (dataSetSize, 1)) - dataSet
  6. sqDiffMat = diffMat**2
  7. sqDistances = sqDiffMat.sum(axis=1)
  8. distances = sqDistances**0.5
  9. sortedDistIndicies = distances.argsort()
  10. classCount = {} #选择距离最小的k个点
  11. for i in range(k):
  12. voteIlabel = labels[sortedDistIndicies[i]]
  13. classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
  14. sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True) #排序
  15. return sortedClassCount[0][0]
  1. #编写基本的通用函数
  2. def createDataSet():
  3. group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
  4. labels = ['A', 'A', 'B', 'B']
  5. return group, labels
  6. #将文本记录转换为numpy的解析程序
  7. def file2matrix(filename):
  8. fr = open(filename)
  9. numberOfLines = len(fr.readlines()) #get the number of lines in the file得到文件行数
  10. returnMat = numpy.zeros((numberOfLines, 3)) #prepare matrix to return创建返回的numpy矩阵
  11. classLabelVector = [] #prepare labels return解析文件数据列表
  12. fr = open(filename)
  13. index = 0
  14. for line in fr.readlines():
  15. line = line.strip()
  16. listFromLine = line.split('\t')
  17. returnMat[index, :] = listFromLine[0:3]
  18. classLabelVector.append(numpy.int(listFromLine[-1]))
  19. index += 1
  20. return returnMat, classLabelVector
  21. #归一化特征值
  22. def autoNorm(dataSet):
  23. minVals = dataSet.min(0)
  24. maxVals = dataSet.max(0)
  25. ranges = maxVals - minVals
  26. m = dataSet.shape[0]
  27. normDataSet = dataSet - numpy.tile(minVals, (m, 1))
  28. normDataSet = normDataSet / numpy.tile(ranges, (m, 1)) #element wise divide特征值相除
  29. return normDataSet, ranges, minVals
  30. '''
  31. def datingClassTest():
  32. hoRatio = 0.50 #hold out 10%
  33. datingDataMat,datingLabels = file2matrix('datingTestSet2.txt') #load data setfrom file
  34. normMat, ranges, minVals = autoNorm(datingDataMat)
  35. m = normMat.shape[0]
  36. numTestVecs = numpy.int(m * hoRatio)
  37. errorCount = 0.0
  38. for i in range(numTestVecs):
  39. classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
  40. print "the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i])
  41. if classifierResult != datingLabels[i]: errorCount += 1.0
  42. print "the total error rate is: %f" % (errorCount / numpy.float(numTestVecs))
  43. print errorCount'''
  44. #将图像转换为向量
  45. def img2vector(filename):
  46. returnVect = numpy.zeros((1, 1024))
  47. fr = open(filename)
  48. for i in range(32):
  49. lineStr = fr.readline()
  50. for j in range(32):
  51. returnVect[0,32*i+j] = numpy.int(lineStr[j])
  52. return returnVect
  53. #手写数字识别系统的测试代码
  54. def handwritingClassTest():
  55. hwLabels = []
  56. trainingFileList = listdir('trainingDigits') #load the training set获取目录内容
  57. m = len(trainingFileList)
  58. trainingMat = numpy.zeros((m, 1024))
  59. for i in range(m):
  60. fileNameStr = trainingFileList[i]
  61. fileStr = fileNameStr.split('.')[0] #take off .txt 从文件名解析分类数字
  62. classNumStr = numpy.int(fileStr.split('_')[0])
  63. hwLabels.append(classNumStr)
  64. trainingMat[i, :] = img2vector('trainingDigits/%s' % fileNameStr)
  65. testFileList = listdir('testDigits') #iterate through the test set
  66. errorCount = 0.0
  67. mTest = len(testFileList)
  68. for i in range(mTest):
  69. fileNameStr = testFileList[i]
  70. fileStr = fileNameStr.split('.')[0] #take off .txt
  71. classNumStr = numpy.int(fileStr.split('_')[0])
  72. vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
  73. classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
  74. print "the classifier came back with: %d, the real answer is: %d" % (classifierResult, classNumStr)
  75. if classifierResult != classNumStr: errorCount += 1.0
  76. print 'the total number of errors is: %d' % errorCount
  77. print 'the total error rate is: %f' % (errorCount / numpy.float(mTest))
(2)python交互式界面输入以下命令导入上面编辑的程序模块。
  1. >>>import KNN
  2. >>>group,labels=KNN.createDataSet()
(3)分析数据:使用matplotlib创建散点图
  1. >>>import matplotlib
  2. >>>import matplotlib.pyplot as plot
  3. >>>fig=plt.figure()
  4. >>>ax=fig.add_subplot(111)
  5. >>>ax.scatter(datingDataMat[:,1],datingDataMat[:,2],15.0*array(datingLabels),15.0*array(datingLabels))
(4)测试输出结果
KNN.handwritingClassTest()
四、算法优缺点
简单有效,精度高,对异常值不敏感,无数据输入假定。
计算复杂度高,空间复杂度高;由于必须对数据集中每个数据计算距离值,实际使用时可能非常耗时;另外,它无法给出任何数据的基础结构信息,因此我们无法知晓平均实例样本的典型实例样本具有什么特征。

注:代码中用到的诸如datingTestSet2.txt等类似的数据需要自己额外添加于代码相同路径下。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/442626
推荐阅读
相关标签
  

闽ICP备14008679号