当前位置:   article > 正文

[Pytorch系列-26]:神经网络基础 - 多个带激活函数的神经元实现非线性回归_relu神经网络非参数回归

relu神经网络非参数回归

作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120600621


目录

前言 深度学习模型框架

第1章 业务领域分析

1.1  步骤1-1:业务领域分析

1.2 步骤1-2:业务建模

1.3 代码实例前置条件

第2章 前向运算模型定义

2.1 步骤2-1:数据集选择

2.2 步骤2-2:数据预处理

2.3 步骤2-3:神经网络建模

2.4 步骤2-4:神经网络输出

第3章 后向运算模型定义

3.1 步骤3-1:定义loss函数

3.2  步骤3-2:定义优化器

3.3 步骤3-3:模型训练

3.4 步骤3-4:模型验证

3.5 步骤3-5:模型可视化

第4章 模型部署

4.1 步骤4-1:模型部署



前言 深度学习模型框架

[人工智能-深度学习-8]:神经网络基础 - 机器学习、深度学习模型、模型训练_文火冰糖(王文兵)的博客-CSDN博客_神经网络与深度学习第1章 白话机器学习[人工智能-综述-4]:白话深度学习-- 无基础小白都能理解机器学习的核心概念_文火冰糖(王文兵)的博客-CSDN博客[人工智能-深度学习-7]:神经网络基础 - 人工神经网络ANN_文火冰糖(王文兵)的博客-CSDN博客第2章 机器学习的模型与步骤2.1深度学习与机器学习上述三个概念中:人工智能的概念最广泛,所以有能机器具有类”人“一样智能的技术、非技术(如伦理)的领域,都是人工智能。机器获取“智能”的一个重要手段是,机器具备“自我学习”的能力,...https://blog.csdn.net/HiWangWenBing/article/details/120462734

第1章 业务领域分析

1.1  步骤1-1:业务领域分析

非线性回归,样本是带噪声的数据。

从样本数据可以看出,内在的规律可能是一个抛物线,但肯定一元一次的函数(直线)

因此,这是非线性回归问题。

1.2 步骤1-2:业务建模

单个神经元是都输入和单个输出。

可以构建两层的神经网络

(1)隐藏层1:

  • 一维的输入属性X
  • 多个并行的神经元,这里初步选10个神经元
  • 每个神经元有一个激活函数relu

(2)输出层:

  • 由于是单输入,因此输出层只需要一个神经元即可。

1.3 代码实例前置条件

  1. #环境准备
  2. import numpy as np # numpy数组库
  3. import math # 数学运算库
  4. import matplotlib.pyplot as plt # 画图库
  5. import torch # torch基础库
  6. import torch.nn as nn # torch神经网络库
  7. import torch.nn.functional as F # torch神经网络库
  8. print("Hello World")
  9. print(torch.__version__)
  10. print(torch.cuda.is_available())
Hello World
1.8.0
False

第2章 前向运算模型定义

2.1 步骤2-1:数据集选择

这里不需要采用已有的开源数据集,只需要自己构建数据集即可。

  1. #2-1 准备数据集
  2. #x_sample = torch.linspace(-1, 1, 100).reshape(-1, 1) 或者
  3. x_sample = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)
  4. #噪声服从正态分布
  5. noise = torch.randn(x_sample.size())
  6. y_sample = x_sample.pow(2) + 1 + 0.1 * noise
  7. y_line = x_sample.pow(2) + 1
  8. #可视化数据
  9. print(x_sample.shape)
  10. print(y_sample.shape)
  11. print(y_line.shape)
  12. plt.scatter(x_sample.data.numpy(), y_sample.data.numpy())
  13. plt.plot(x_sample, y_line,'green')

torch.Size([100, 1])
torch.Size([100, 1])
torch.Size([100, 1])

Out[51]:

[<matplotlib.lines.Line2D at 0x279b8d43130>]

2.2 步骤2-2:数据预处理

  1. # 2-2 对数据预处理
  2. x_train = x_sample
  3. y_train = y_sample

2.3 步骤2-3:神经网络建模

  1. # 2-3 定义网络模型
  2. class Net(torch.nn.Module):
  3. # 定义神经网络
  4. def __init__(self, n_feature, n_hidden, n_output):
  5. super(Net, self).__init__()
  6. #定义隐藏层L1
  7. # n_feature:输入属性的维度
  8. # n_hidden: 神经元的个数 = 输出属性的个数
  9. self.hidden = torch.nn.Linear(n_feature, n_hidden)
  10. #定义输出层:
  11. # n_hidden:输入属性的维度
  12. # n_output: 神经元的个数 = 输出属性的个数
  13. self.predict = torch.nn.Linear(n_hidden, n_output)
  14. #定义前向运算
  15. def forward(self, x):
  16. h1 = self.hidden(x)
  17. s1 = F.relu(h1)
  18. out = self.predict(s1)
  19. return out
  20. model = Net(1,10,1)
  21. print(model)
  22. print(model.parameters)
  23. print(model.parameters())
Net(
  (hidden): Linear(in_features=1, out_features=10, bias=True)
  (predict): Linear(in_features=10, out_features=1, bias=True)
)
<bound method Module.parameters of Net(
  (hidden): Linear(in_features=1, out_features=10, bias=True)
  (predict): Linear(in_features=10, out_features=1, bias=True)
)>
<generator object Module.parameters at 0x00000279B78BC820>

2.4 步骤2-4:神经网络输出

  1. # 2-4 定义网络预测输出
  2. y_pred = model.forward(x_train)
  3. print(y_pred.shape)
torch.Size([100, 1])

第3章 后向运算模型定义

3.1 步骤3-1:定义loss函数

这里采用的MSE loss函数

  1. # 3-1 定义loss函数:
  2. # loss_fn= MSE loss
  3. loss_fn = nn.MSELoss()
  4. print(loss_fn)
MSELoss()

3.2  步骤3-2:定义优化器

  1. # 3-2 定义优化器
  2. Learning_rate = 0.01 #学习率
  3. # optimizer = SGD: 基本梯度下降法
  4. # parameters:指明要优化的参数列表
  5. # lr:指明学习率
  6. optimizer = torch.optim.SGD(model.parameters(), lr = Learning_rate)
  7. print(optimizer)
SGD (
Parameter Group 0
    dampening: 0
    lr: 0.01
    momentum: 0
    nesterov: False
    weight_decay: 0
)

3.3 步骤3-3:模型训练

  1. # 3-3 模型训练
  2. # 定义迭代次数
  3. epochs = 5000
  4. loss_history = [] #训练过程中的loss数据
  5. y_pred_history =[] #中间的预测结果
  6. for i in range(0, epochs):
  7. #(1) 前向计算
  8. y_pred = model(x_train)
  9. #(2) 计算loss
  10. loss = loss_fn(y_pred, y_train)
  11. #(3) 反向求导
  12. loss.backward()
  13. #(4) 反向迭代
  14. optimizer.step()
  15. #(5) 复位优化器的梯度
  16. optimizer.zero_grad()
  17. # 记录训练数据
  18. loss_history.append(loss.item())
  19. y_pred_history.append(y_pred.data)
  20. if(i % 1000 == 0):
  21. print('epoch {} loss {:.4f}'.format(i, loss.item()))
  22. print("\n迭代完成")
  23. print("final loss =", loss.item())
  24. print(len(loss_history))
  25. print(len(y_pred_history))
epoch 0  loss 0.5406
epoch 1000  loss 0.0303
epoch 2000  loss 0.0159
epoch 3000  loss 0.0148
epoch 4000  loss 0.0141

迭代完成
final loss = 0.013485318049788475
5000
5000

3.4 步骤3-4:模型验证

NA

3.5 步骤3-5:模型可视化

(1)前向数据

  1. # 3-4 可视化模型数据
  2. #model返回的是总tensor,包含grad_fn,用data提取出的tensor是纯tensor
  3. y_pred = model.forward(x_train).data.numpy().squeeze()
  4. print(x_train.shape)
  5. print(y_pred.shape)
  6. print(y_line.shape)
  7. plt.scatter(x_train, y_train, label='SampleLabel')
  8. plt.plot(x_train, y_pred, color ="red", label='Predicted')
  9. plt.plot(x_train, y_line, color ="green", label ='Line')
  10. plt.legend()
  11. plt.show()
torch.Size([100, 1])
(100,)
torch.Size([100, 1])

 

备注:

从如上的几何图形可以看出:

  • 人工神经网络模型的拟合图形与抛物线接近,但并不平滑。

(2)后向loss值迭代过程

  1. #显示loss的历史数据
  2. plt.plot(loss_history, "r+")
  3. plt.title("loss value")

(3)前向预测函数的迭代过程

  1. for i in range(0, len(y_pred_history)):
  2. if(i % 100 == 0):
  3. plt.scatter(x_train, y_train, color ="black", label='SampleLabel')
  4. plt.plot(x_train, y_pred_history[i], label ='Line')
  5. plt.plot(x_train, y_line, color ="green", label ='Line', linewidth=4)
  6. plt.plot(x_train, y_pred, color ="red", label='Predicted', linewidth=4)

 从上图,可以清晰的看出,前向预测函数,如何一步步收敛到最终的图形的。

其中:

红色图形:迭代后的图形

绿色图形:解析函数的图形

其他图形:中间迭代的图形

第4章 模型部署

4.1 步骤4-1:模型部署

NA


作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120600621

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/123481
推荐阅读
相关标签
  

闽ICP备14008679号