赞
踩
分类
import torch from torch.autograd import Variable import torch.nn.functional as F import matplotlib.pyplot as plt #生成数据 n_data=torch.ones(100,2) #类别1的数据 x0 = torch.normal(2*n_data,1) #类别1的标签 y0 = torch.zeros(100) #类别2的数据 x1 = torch.normal(-2*n_data,1) #类别2的标签 y1 = torch.ones(100) #x0,x1连接起来,按维度为0连接,并指定数据为FloatTensor 32bit浮点数 x = torch.cat((x0,x1),0).type(torch.FloatTensor) #y0,y1连接起来,由于只有一维,没用指明维度,并指定数据为LongTensor 64bit整数 y = torch.cat((y0,y1),).type(torch.LongTensor) x,y =Variable(x),Variable(y) #因为神经网络只能输入Variable print(x.data.numpy()) print(y.data.numpy()) #plt.scatter(x.data.numpy()[:,0],x.data.numpy()[:,1],c=y.data.numpy(),s=100,lw=0,camp='RdYIGn') #打印散点图 #plt.show() class Net(torch.nn.Module):#继承torch的一个模块 def __init__(self,n_feature,n_hidden,n_output): #n_feature输入层,n_hidden隐藏层,n_output输出层 super(Net,self).__init__() self.hidden = torch.nn.Linear(n_feature,n_hidden) self.predict = torch.nn.Linear(n_hidden,n_output) def forward(self,x):#搭建神经网络前向传递的一些过程 x = F.relu(self.hidden(x)) x = self.predict(x) return x net = Net(2,10,2) #二分类的例子 #[0,1] 类型是1 #[1,0] 类型是0 #多分类的例子 #[0,0,1] 1在哪个位序,判定认定的类型 print(net) #可视化 plt.ion() plt.show() optimizer = torch.optim.SGD(net.parameters(),lr=0.01) #优化神经网络,传递参数,lr是学习效率,也是梯度下降幅度 loss_func = torch.nn.CrossEntropyLoss() #分类所用的函数 #计算每个类型的概率 [0.1,0.2,0.7] #训练 for t in range(100): out = net(x) loss = loss_func(out,y) optimizer.zero_grad() loss.backward() optimizer.step() if t%2 == 0: plt.cla() # 过了一道 softmax 的激励函数后的最大概率才是预测值 prediction = torch.max(F.softmax(out), 1)[1] #索引为1的地方 最大概率 pred_y = prediction.data.numpy().squeeze() target_y = y.data.numpy() plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, s=100, lw=0, cmap='RdYlBu') accuracy = sum(pred_y == target_y)/200. # 预测中有多少和真实值一样 plt.text(1.5, -4, 'Accuracy=%.2f' % accuracy, fontdict={'size': 20, 'color': 'red'}) plt.pause(0.5) plt.ioff() plt.show()
执行结果:
参考:莫烦python
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。