赞
踩
最简单最初级的分类器,就是将全部的训练数据所对应的类别都记录下来,当测试对象的属性和某个训练对象的属性完全匹配时,便可以对其进行分类
KNN示例
如下图所示,绿色圆要被决定赋予哪个类,是红色三角还是蓝色四方形?
当k=3时,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角那个类。当k=5时,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。
通过上面的例子可以看出,KNN算法的结果很大程度取决于K的选择。
KNN中,通常计算对象间距离来作为各个对象之间的非相似性指标,避免了对象之间的匹配问题,在这里距离一般使用欧式距离或曼哈顿距离:
欧氏距离:
曼哈顿距离:
在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类,其算法的描述为:
a)计算测试数据与各个训练数据之间的距离;
b)按照距离的递增关系进行排序;
c)选取距离最小的K个点;
d)确定前K个点所在类别的出现频率;
e)返回前K个点中出现频率最高的类别作为测试数据的预测分类。
本例以 sklearn 中提供的鸢尾花数据为例,其包含了150个样本。在这个例子中,选择30%的数据作为测试数据,其余数据作为训练数据。
当然,sklearn中本身也自带又knn算法的分类器。下面的例子中初始化时传入参数 n_neighbors 为 6,即为上面的 k。fit()
方法根据训练数据集“训练”分类器,该方法会返回分类器本身。
- from sklearn.neighbors import KNeighborsClassifier
-
- kNN_classifier = KNeighborsClassifier(n_neighbors=6)
-
- kNN_classifier.fit(X_train, y_train)
1.引入依赖
- import numpy as np
- import pandas as pd
-
- #这里直接引入sklearn里的数据集,iris 燕尾花
- from sklearn.datasets import load_iris
- from sklearn.model_selection import train_test_split #切分数据集为训练集和测试集
- from sklearn.metrics import accuracy_score #计算分类预测的准确率
2.数据的加载和预处理
- iris = load_iris()
- df = pd.DataFrame(data=iris.data,columns=iris.feature_names)
- df['class']=iris.target
- df['class']=df['class'].map({0:iris.target_names[0],1:iris.target_names[1],2:iris.target_names[2]})
- df.describe()
- x = iris.data
- y = iris.target.reshape(-1,1)
- print(x.shape,y.shape)
-
- #划分训练集和测试集
- x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3,random_state=35,stratify=y)
- print(x_train.shape,y_train.shape)
3.定义距离函数
- #曼哈顿距离
- def l1_distance(a,b):
- # 把每一行加起来
- return np.sum(np.abs(a-b),axis=1)
- #欧式距离
- def l2_distance(a,b):
- return np.sqrt(np.sum((a-b)**2,axis=1))
4.分类器实现
- #分类器实现
- class kNN(object):
- # 定义一个初始化方法,__init__ 是类的构造方法
- def __init__(self, n_neighbors = 1,dist_func = l1_distance):
- self.n_neighbors = n_neighbors
- self.dist_func = dist_func
- # 训练模型方法
- def fit(self,x,y):
- self.x_train = x
- self.y_train = y
-
- #模型预测方法
- def predict(self,x):
- # 初始化预测分类数组
- y_pred = np.zeros((x.shape[0],1),dtype=self.y_train.dtype)
-
- # 遍历输入的x数据点,取出每一个数据点的序号i和数据x_test
- for i,x_test in enumerate(x):
- # x_test 所有训练数据计算距离
- distances = self.dist_func(self.x_train,x_test)
-
- # 得到的距离按照由近到远排序
- nn_index = np.argsort(distances)
-
- # 选取最近的k个点,保存它们对应的分类类别
- # nn_y = self.y_train[nn_index[:self.n_neighbors]].ravel()
- nn_y = self.y_train[nn_index[:self.n_neighbors] ].ravel()
-
- #统计类别出现频率最高的那个,赋给y_pre[i]
- y_pred[i]=np.argmax(np.bincount(nn_y))
-
-
- return y_pred
![](https://csdnimg.cn/release/blogv2/dist/pc/img/newCodeMoreWhite.png)
5.测试结果
测试1
- #定义一个knn实例
- knn = kNN(n_neighbors = 3)
- #训练模型
- knn.fit(x_train,y_train)
- #传入测试数据,做预测
- y_pred = knn.predict(x_test)
-
- print(y_test.ravel())
- print(y_pred.ravel())
-
- #求出预测准确率
- accuracy = accuracy_score(y_test,y_pred)
-
- print("预测准确率:",accuracy)
测试2:
- #定义一个knn实例
- knn = kNN()
- #训练模型
- knn.fit(x_train,y_train)
-
- # 保存结果list
- result_list = []
-
- # 针对不同的参数选取,做预测
- for p in [1,2]:
- knn.dist_func = l1_distance if p==1 else l2_distance
-
- # 考虑不同的k取值,步长为2
- for k in range(1,10,2):
- knn.n_neighbors = k
- #传入测试数据,做预测
- y_pred = knn.predict(x_test)
- #求出预测准确率
- accuracy = accuracy_score(y_test,y_pred)
- result_list.append([k,'l1_distance' if p==1else 'l2_distance',accuracy] )
-
- df=pd.DataFrame(result_list,columns=['k','距离函数','预测准确率'])
- df
![](https://csdnimg.cn/release/blogv2/dist/pc/img/newCodeMoreWhite.png)
从测试2我们可以看出,当k=5,距离函数为l1_distance时,预测准确率最高。K值的选取不同,距离函数的选取,会影响准确率。
参考博客:https://segmentfault.com/a/1190000016816659
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。