赞
踩
目录
感知器算法是一种可以直接得到线性判别函数的线性分类方法,它是基于样本线性可分的要求下使用的。
为了方便讨论,我们蒋样本增加了以为常数,得到增广样向量 y=(1;;;...;),则n个样本的集合为(,;,.....,),增广权矢量表示为 a = (;;....,),我们得到新的怕没别函数
对应的决策规划就变为:g(y)>0,则决策为第一类;g(y)<0决策为第二类,那什么是线性可分?什么是线性不可分?
假设有一组样本 (,;,.....,),如果存在这样一个权矢量 a,使得任何一个样本满足"属于第一类,g(y)>0:属于第二类,g(y)<0〞这样—个条件,那么我们就说这一组样本是线性可分的,即在样本特征空间中,至少会存在一个决策面可以将两类样本正确无误的分开,反之找不到一个决策面来区分的话,就说样本是线性不可分。
对于感知器,我们要求样本必须是线性可分的,因为它作为一种最最简单的学习机器,目前还无法很好的解决线性不可分的情况(当然,有了解决不可分的算法),即便是不可分的情况,人们也更加倾向于使用其他算法,这也是感知器无法应用到更多实践场合的原因。
- import numpy as np
- import matplotlib.pyplot as plt
- from sklearn import datasets
-
- # 加载数据集
- iris = datasets.load_iris()
-
- # 提取特征和目标变量
- x = iris.data
- y = iris.target
-
- # 只选择两个特征变量和两个目标类别,进行简单的二分类
- x = x[y < 2, :2]
- y = y[y < 2]
-
- # 绘制散点图
- plt.scatter(x[y == 0, 0], x[y == 0, 1]) # 绘制类别0的样本
- plt.scatter(x[y == 1, 0], x[y == 1, 1]) # 绘制类别1的样本
- plt.show()
- def check(w, x, y):
- # 检查预测结果是否与真实标签一致
- return ((w.dot(x.T)>0).astype(int)==y).all()
-
- def train(w, train_x, train_y, learn=1, max_iter=200):
- iter = 0
- while ~check(w, train_x, train_y) and iter<=max_iter:
- iter += 1
- for i in range(train_y.size):
- predict_y = (w.dot(train_x[i].T)>0).astype(int)
- if predict_y != train_y[i]:
- # 根据预测和真实标签的差异调整权重
- w += learn*(train_y[i] - predict_y)*train_x[i]
- return w
-
- def normalize(x):
- # 归一化函数,将输入数据转换到0-1范围
- max_x = np.max(x, axis=0)
- min_x = np.min(x, axis=0)
- norm_x = (max_x - x) / (max_x - min_x)
- return norm_x
-
- norm_x = normalize(x)
- train_x = np.insert(norm_x, 0, values=np.ones(100).T, axis=1)
- w = np.random.random(3)
- w = train(w, train_x, y)
- def plot_decision_boundary(w, axis):
- # 生成决策边界的坐标网格
- x0, x1 = np.meshgrid(np.linspace(axis[0], axis[1], int((axis[1] - axis[0])*100)).reshape(1, -1),
- np.linspace(axis[2], axis[3], int((axis[3] - axis[2])*100)).reshape(1, -1))
- x_new = np.c_[x0.ravel(), x1.ravel()]
- x_new = np.insert(x_new, 0, np.ones(x_new.shape[0]), axis=1)
- # 对网格中的点进行预测
- y_predict = (w.dot(x_new.T)>0).astype(int)
- zz = y_predict.reshape(x0.shape)
-
- # 设置自定义的颜色映射
- from matplotlib.colors import ListedColormap
- custom_cmap = ListedColormap(['#EF9A9A', '#FFF59D', '#90CAF9'])
-
- # 绘制决策边界
- plt.contourf(x0, x1, zz, linewidth=5, cmap=custom_cmap)
-
- # 绘制决策边界
- plot_decision_boundary(w, axis=[-1, 1, -1, 1])
- # 绘制类别为0的样本点(红色)
- plt.scatter(norm_x[y==0, 0], norm_x[y==0, 1], color='red')
- # 绘制类别为1的样本点(蓝色)
- plt.scatter(norm_x[y==1, 0], norm_x[y==1, 1], color='blue')
- # 显示图形
- plt.show()
- from sklearn.datasets import make_classification
-
- x,y = make_classification(n_samples=1000, n_features=2,n_redundant=0,n_informative=1,n_clusters_per_class=1)
-
- #n_samples:生成样本的数量
-
- #n_features=2:生成样本的特征数,特征数=n_informative() + n_redundant + n_repeated
-
- #n_informative:多信息特征的个数
-
- #n_redundant:冗余信息,informative特征的随机线性组合
-
- #n_clusters_per_class :某一个类别是由几个cluster构成的
-
- #训练数据和测试数据
- x_data_train = x[:800,:]
- x_data_test = x[800:,:]
- y_data_train = y[:800]
- y_data_test = y[800:]
-
- #正例和反例
- positive_x1 = [x[i,0] for i in range(1000) if y[i] == 1]
- positive_x2 = [x[i,1] for i in range(1000) if y[i] == 1]
- negetive_x1 = [x[i,0] for i in range(1000) if y[i] == 0]
- negetive_x2 = [x[i,1] for i in range(1000) if y[i] == 0]
- from sklearn.linear_model import Perceptron
- #定义感知机
- clf = Perceptron(fit_intercept=False,shuffle=False)
- #使用训练数据进行训练
- clf.fit(x_data_train,y_data_train)
- #得到训练结果,权重矩阵
- print(clf.coef_)
- #输出为:[[-0.38478876,4.41537463]]
-
- #超平面的截距,此处输出为:[0.]
- print(clf.intercept_)
-
- #利用测试数据进行验证
- acc = clf.score(x_data_test,y_data_test)
- print(acc)
- #得到的输出结果为0.98,这个结果还不错吧。
- from matplotlib import pyplot as plt
- #画出正例和反例的散点图
- plt.scatter(positive_x1,positive_x2,c='red')
- plt.scatter(negetive_x1,negetive_x2,c='blue')
- #画出超平面(在本例中即是一条直线)
- line_x = np.arange(-4,4)
- line_y = line_x * (-clf.coef_[0][0] / clf.coef_[0][1]) - clf.intercept_
- plt.plot(line_x,line_y)
- plt.show()
运行效果:
总体而言,感知器算法是一种简单而有效的线性分类算法,适用于处理线性可分的二分类问题。然而,对于非线性问题或者多分类问题,感知器算法存在一些局限性,需要使用其他更复杂的算法来解决。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。