当前位置:   article > 正文

[Pytorch系列-24]:神经网络基础 - 单个无激活函数的神经元实现简单线性回归 - 1_不带激活函数的神经网络

不带激活函数的神经网络

作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120597547


目录

前言 深度学习模型框架

第1章 业务领域分析

1.1  步骤1-1:业务领域分析

1.2 步骤1-2:业务建模

1.3 代码实例前置条件

第2章 前向运算模型定义

2.1 步骤2-1:数据集选择

2.2 步骤2-2:数据预处理

2.3 步骤2-3:神经网络建模

2.4 步骤2-4:神经网络输出

第3章 后向运算模型定义

3.1 步骤3-1:定义loss函数

3.2  步骤3-2:定义优化器

3.3 步骤3-3:模型训练

3.4 步骤3-4:模型验证

3.5 步骤3-5:模型可视化

第4章 模型部署

4.1 步骤4-1:模型部署



前言 深度学习模型框架

[人工智能-深度学习-8]:神经网络基础 - 机器学习、深度学习模型、模型训练_文火冰糖(王文兵)的博客-CSDN博客_神经网络与深度学习第1章 白话机器学习[人工智能-综述-4]:白话深度学习-- 无基础小白都能理解机器学习的核心概念_文火冰糖(王文兵)的博客-CSDN博客[人工智能-深度学习-7]:神经网络基础 - 人工神经网络ANN_文火冰糖(王文兵)的博客-CSDN博客第2章 机器学习的模型与步骤2.1深度学习与机器学习上述三个概念中:人工智能的概念最广泛,所以有能机器具有类”人“一样智能的技术、非技术(如伦理)的领域,都是人工智能。机器获取“智能”的一个重要手段是,机器具备“自我学习”的能力,...https://blog.csdn.net/HiWangWenBing/article/details/120462734

第1章 业务领域分析

1.1  步骤1-1:业务领域分析

1.2 步骤1-2:业务建模

1.3 代码实例前置条件

  1. #环境准备
  2. import numpy as np # numpy数组库
  3. import math # 数学运算库
  4. import matplotlib.pyplot as plt # 画图库
  5. import torch # torch基础库
  6. import torch.nn as nn # torch神经网络库
  7. print("Hello World")
  8. print(torch.__version__)
  9. print(torch.cuda.is_available())
Hello World
1.8.0
False

第2章 前向运算模型定义

2.1 步骤2-1:数据集选择

这里不需要采用已有的开源数据集,只需要自己构建数据集即可。

  1. #2-1 准备数据集
  2. x_sample = np.linspace(0, 5, 64)
  3. noise = np.random.randn(64)
  4. y_sample = 2 * x_sample + 1 + noise
  5. y_line = 2 * x_sample + 1
  6. #可视化数据
  7. plt.scatter(x_sample, y_sample)
  8. plt.plot(x_sample, y_line,'red')

2.2 步骤2-2:数据预处理

(1)把numpy一维数据转换成二维样本数据

(2)把numpy样本数据转换成torch样本数据

  1. # 2-2 对数据预处理
  2. print("Numpy原始样本的形状")
  3. print(x_sample.shape)
  4. print(y_sample.shape)
  5. # 把一维线性数据转换成二维样本数据,每个样本数据为一维
  6. print("\nNumpy训练样本的形状")
  7. x_numpy = x_sample.reshape(-1, 1).astype('float32')
  8. y_numpy = y_sample.reshape(-1, 1).astype('float32')
  9. print(x_numpy.shape)
  10. print(y_numpy.shape)
  11. # numpy样本数据转换成pytorch样本数据
  12. print("\ntorch训练样本的形状")
  13. x_train = torch.from_numpy(x_numpy)
  14. y_train = torch.from_numpy(y_numpy)
  15. print(x_train.shape)
  16. print(y_train.shape)
  17. plt.scatter(x_train, y_train)

Numpy原始样本的形状
(64,)
(64,)

Numpy训练样本的形状
(64, 1)
(64, 1)

torch训练样本的形状
torch.Size([64, 1])
torch.Size([64, 1])

Out[3]:

<matplotlib.collections.PathCollection at 0x1fdc56524f0>

2.3 步骤2-3:神经网络建模

这里的神经网络模型是单输入(size=1)、单输出(size=1)、无激活函数的线性神经元。

  1. # 2-3 定义网络模型
  2. # in_features: 输入数据的size = 1
  3. # out_features: 输处数据的size = 1
  4. # bias = True: 打开偏置参数B
  5. print("定义并初始化模型")
  6. model = nn.Linear(in_features=1, out_features=1)
  7. print(model)
  8. print("\n获取W,B参数的初始化值(随机产生)")
  9. w,b = model.parameters()
  10. print(w)
  11. print(b)
定义并初始化模型
Linear(in_features=1, out_features=1, bias=True)

获取W,B参数的初始化值(随机产生)
Parameter containing:
tensor([[-0.3860]], requires_grad=True)
Parameter containing:
tensor([-0.7404], requires_grad=True)

备注:

神经网络中w,b参数的初始值是随机初始,每次调用nn.Linear创建神经网络,W, B参数都不一样。

2.4 步骤2-4:神经网络输出

  1. # 2-4 定义网络预测输出
  2. y_pred = model.forward(x_train)
  3. print(y_pred.shape)
torch.Size([64, 1])

备注:输出是64个样本的一维数据

第3章 后向运算模型定义

3.1 步骤3-1:定义loss函数

这里采用的MSE loss函数

  1. # 3-1 定义loss函数:
  2. # loss_fn= MSE loss
  3. loss_fn = nn.MSELoss()
  4. print(loss_fn)
MSELoss()

3.2  步骤3-2:定义优化器

  1. # 3-2 定义优化器
  2. Learning_rate = 0.01 #学习率
  3. # optimizer = SGD: 基本梯度下降法
  4. # parameters:指明要优化的参数列表
  5. # lr:指明学习率
  6. optimizer = torch.optim.SGD(model.parameters(), lr = Learning_rate)
  7. print(optimizer)
SGD (
Parameter Group 0
    dampening: 0
    lr: 0.01
    momentum: 0
    nesterov: False
    weight_decay: 0
)

备注:优化器需要指明优化的参数列表和学习率

3.3 步骤3-3:模型训练

  1. # 3-3 模型训练
  2. # 定义迭代次数
  3. epochs = 500
  4. loss_history = [] #训练过程中的loss数据
  5. w_history = [] #训练过程中的w参数值
  6. b_history = [] #训练过程中的b参数值
  7. for i in range(0, epochs):
  8. #(1) 前向计算
  9. y_pred = model(x_train)
  10. #(2) 计算loss
  11. loss = loss_fn(y_pred, y_train)
  12. #(3) 反向求导
  13. loss.backward()
  14. #(4) 反向迭代
  15. optimizer.step()
  16. #(5) 复位优化器的梯度
  17. optimizer.zero_grad()
  18. w, b = model.parameters()
  19. loss_history.append(loss.item())
  20. w_history.append(w.item())
  21. b_history.append(b.item())
  22. if(i % 100 == 0):
  23. print('epoch {} loss {:.4f}'.format(i, loss.item()))
  24. print("\n迭代完成")
  25. w, b = model.parameters() #parameters()返回的是一个迭代器指向的对象
  26. print("\n训练后w参数值:", w, w.item())
  27. print("\n训练后b参数值:", b, b.item())
  28. print("\n最小损失数值 :", loss, loss.item())
  29. print(len(loss_history))
  30. print(len(w_history))
  31. print(len(b_history))
epoch 0  loss 42.0689
epoch 100  loss 1.0441
epoch 200  loss 1.0440
epoch 300  loss 1.0439
epoch 400  loss 1.0439

迭代完成

训练后w参数值: Parameter containing:
tensor([[1.8530]], requires_grad=True) 1.8529784679412842

训练后b参数值: Parameter containing:
tensor([1.2702], requires_grad=True) 1.2701895236968994

最小损失数值 : tensor(1.0439, grad_fn=<MseLossBackward>) 1.0438624620437622
500
500
500

3.4 步骤3-4:模型验证

NA

3.5 步骤3-5:模型可视化

  1. # 3-4 可视化模型数据
  2. #model返回的是总tensor,包含grad_fn,用data提取出的tensor是纯tensor
  3. y_pred = model.forward(x_train).data.numpy().squeeze()
  4. print(x_train.shape)
  5. print(y_pred.shape)
  6. print(y_line.shape)
  7. plt.scatter(x_train, y_train, label='SampleLabel')
  8. plt.plot(x_train, y_pred, label='Predicted')
  9. plt.plot(x_train, y_line, label='Line')
  10. plt.legend()
  11. plt.show()
torch.Size([64, 1])
(64,)
(64,)

  1. #显示loss的历史数据
  2. plt.plot(loss_history, "r+")
  3. plt.title("loss value")

  1. #显示w参数的历史数据
  2. plt.plot(w_history, "r+")
  3. plt.title("w value")

  1. #显示b参数的历史数据
  2. plt.plot(b_history, "r+")
  3. plt.title("b value")

第4章 模型部署

4.1 步骤4-1:模型部署

NA


作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120597547

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/123434
推荐阅读
相关标签
  

闽ICP备14008679号