赞
踩
原视频链接:3. 零基础入门PyTorch之线性回归【逐行代码讲解】
原文章链接:【PyTorch修炼】零基础入门PyTorch之线性回归【逐行代码讲解】
线性回归其实就是
y=kx+b
但是需要注意的是,这里所有的未知量都是一个矩阵而不是一个数,k是权重,b是偏差
要求:
import torch
import torch.nn as nn
import matplotlib.pyplot as plt
x=torch.linspace(0,20,500)#0-20之间取500个点
k=3
b=10
y=k*x+b
plt.scatter(x.data.numpy(),y.data.numpy())#因为torch的数据类型都是tensor,而plt只能画numpy数据结构的,所以需要写data.numpy()转换一下
plt.show()
输出结果:
现在我们把写的函数都注释掉,来用机器学习拟合这条线
x=torch.rand(512)#随机在0-1之间有512个点
noise=0.2*torch.randn(x.size())#加入高斯白噪声
k=3
b=10
y=k*x+b+noise
plt.scatter(x.data.numpy(),y.data.numpy())
plt.show()
输出结果:
class LinearModel(nn.Module):
def __init__(self,in_fea,out_fea):
super(LinearModel, self).__init__()
self.output=nn.Linear(in_features=in_fea,out_features=out_fea)
def forward(self,x):
x=self.output(x)
return x
input_x=torch.unsqueeze(x,dim=1)#因为我们输入的x是512个数,而不是512,所以需要转换维度
input_y=torch.unsqueeze(y,dim=1)
model=LinearModel()
loss_func=nn.MSELoss()#均方差求loss
optimizer=torch.optim.SGD(model.parameters(),lr=0.02)#随机梯度下降优化器
plt.ion()#打开交互模型
for step in range(20): pred=model(input_x)#预测值 loss=loss_func(pred,input_y)#损失值 optimizer.zero_grad()#梯度归零 loss.backward()#反向传播 optimizer.step()#进行优化器训练 if step %10 ==0:#每十次移动一次 plt.cla()#清除上一次的 plt.scatter(input_x.data.numpy(),input_y.data.numpy()) plt.plot(input_x.data.numpy(),pred.data.numpy(),'r-',lw=5)#画出预测的图像,线是红色,粗细是5 [w,b]=model.parameters() plt.text(0,0.5,'loss=%.4f,k=%.2f,b=%.2f'%(loss.item(),k.item(),b.item())) plt.pause(1)#每次停顿一下 plt.ioff()#关闭实时显示 plt.show()
输出结果:
可以看到红线正在逐渐拟合
import torch import torch.nn as nn import matplotlib.pyplot as plt # x=torch.linspace(0,20,500)#0-20之间取500个点 # k=3 # b=10 # y=k*x+b # # plt.scatter(x.data.numpy(),y.data.numpy())#因为torch的数据类型都是tensor,而plt只能画numpy数据结构的,所以需要写data.numpy()转换一下 # plt.show() x=torch.rand(512)#随机在0-1之间有512个点 noise=0.2*torch.randn(x.size())#加入高斯白噪声 k=3 b=10 y=k*x+b+noise # plt.scatter(x.data.numpy(),y.data.numpy()) # plt.show() class LinearModel(nn.Module): def __init__(self,in_fea,out_fea): super(LinearModel, self).__init__() self.output=nn.Linear(in_features=in_fea,out_features=out_fea) def forward(self,x): x=self.output(x) return x input_x=torch.unsqueeze(x,dim=1)#因为我们输入的x是512个数,而不是512,所以需要转换维度 input_y=torch.unsqueeze(y,dim=1) model=LinearModel(1,1) loss_func=nn.MSELoss()#均方差求loss optimizer=torch.optim.SGD(model.parameters(),lr=0.02)#随机梯度下降优化器 plt.ion()#打开交互模型 for step in range(200): pred=model(input_x) loss=loss_func(pred,input_y) optimizer.zero_grad()#梯度归零 loss.backward()#反向传播 optimizer.step() if step %10 ==0: plt.cla() plt.scatter(input_x.data.numpy(),input_y.data.numpy()) plt.plot(input_x.data.numpy(),pred.data.numpy(),'r-',lw=5)#画出预测的图像,线是红色,粗细是5 plt.xlim(0, 1.1)#防止x文本消失 plt.ylim(0, 20) [w,b]=model.parameters() plt.text(0,0.5,'loss=%.4f,k=%.2f,b=%.2f'%(loss.item(),w.item(),b.item())) plt.pause(1)#每次停顿一下 plt.ioff() plt.show()
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。