当前位置:   article > 正文

【Pytorch深度学习实践】B站up刘二大人之Multiple Dimension Logistic Regression Model-代码理解与实现(6/9)_multiple logistic regerssion model

multiple logistic regerssion model

开篇几句题外话:

这节课的内容跟上一节的递进关系,在于输入数据的维度,不再是原本的一维数值(标量);而是升级为多维向量,这更符合多个自变量共同影响输出的实际应用场景,想起了吴恩达课程中的房价预测模型,卧室数量、厨房数量等,可以绑定在一起构成向量的形式,作为输入。

Lecture07 —— Multiple Dimension Logistic Regression Model 多维输入的逻辑回归模型

说在前面:

  • 这部分内容有不少更新指出:
    (1)这节课的内容跟上一节的递进关系,在于输入数据的维度,不再是原本的一维数值(标量);
    (2)而是升级为多维向量,这更符合多个自变量共同影响输出的实际应用场景;
    (3)想起了吴恩达课程中的房价预测模型,卧室数量、厨房数量等,可以绑定在一起构成向量的形式,作为输入。

详细过程:

  • 本课程的主要任务是通过将原本简单的标量输入,升级为向量输入,构建线性传播模型:
    • 在导入数据阶段就有很大不同:
      • 由于课程中导入的数据是anaconda安装工具包中的自带的压缩文本数据,所以直接采用numpy中的loadtxt读取,这个函数可以直接读取Linux下压缩的格式,此处是.gz
      • 后面还有两个参数,一个是分隔的字符类型,此处是逗号,另一个是数据的类型,刘老师在课程中讲,只有高端的显卡,才会读取double类型的数据,而普通的显卡读取float32
    • 将导入的数据,分成自变量和label,这是在文本文件中已经确定好了的,最后一列为y_data,其余为x_data
    • 创建Model类模型(有巨大变化,非常重要):
      • 初始化init中,不再只有一个linear函数;
        • 要根据线性层的输入和输出要求,自定义不同的self.linear,此处是8 → 6 → 4 → 1;其中两个参数分别为in_channel数量和out_channel数量;
        • 接着,要跟一个Sigmoid函数,将最终的输出值,转为0-1区间上的概率值,这个内容是上一节中通过函数句柄F.sigmoid实现的,但此处的函数名称要大写,容易出错;
      • 前向传播forward中,直接调用init中定义好的各层,此处要注意,输入为x,返回值也定义为x吧:x = self.sigmoid(self.linear1(x)),否则出错了不好排除问题,并且sigmoid是小写开头,因为在init中,定义的时候,是以小写开头定义的,注意逻辑;
  • 此处跟后续修改内容有很强的联系,刘老师在本节课中没有做运行和输出训练损失曲线等,在其他笔记中找到了相关的内容,做了一个输出显示,在详情中可以查看;

完整代码:

#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: 07_MultipleDimensionInput_handType.py
@time: 2022/04/10
@desc:
"""

import numpy as np
import torch
import matplotlib.pyplot as plt
import os

os.environ['KMP_DUPLICATE_LIB_OK'] = 'True'

xy = np.loadtxt('../diabetes.csv.gz', delimiter=',', dtype=np.float32)

x_data = torch.from_numpy(xy[:, :-1])
y_data = torch.from_numpy(xy[:, [-1]])


class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.linear1 = torch.nn.Linear(8, 6)
        self.linear2 = torch.nn.Linear(6, 4)
        self.linear3 = torch.nn.Linear(4, 1)
        self.sigmoid = torch.nn.Sigmoid()

    def forward(self, x):
        x = self.sigmoid(self.linear1(x))
        x = self.sigmoid(self.linear2(x))
        x = self.sigmoid(self.linear3(x))
        return x


model = Model()

criterion = torch.nn.BCELoss(reduction='mean')
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)

epoch_list = []
loss_list = []

for epoch in range(100):
    # Forward 前向传播
    y_hat = model(x_data)
    loss = criterion(y_hat, y_data)
    print(epoch, loss.item())

    # Backward 反向传播
    optimizer.zero_grad()
    loss.backward()

    # Update 更新
    optimizer.step()

    epoch_list.append(epoch)
    loss_list.append(loss.item())

    if epoch % 10 == 9:
        y_pred_label = torch.where(y_hat >= 0.5, torch.tensor([1.0]), torch.tensor([0.0]))

        accuracy = torch.eq(y_pred_label, y_data).sum().item() / y_data.size(0)
        print("loss = ", loss.item(), "acc = ", accuracy)

plt.plot(epoch_list, loss_list)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72

运行结果:

在这里插入图片描述

在这里插入图片描述

上一篇:

【Pytorch深度学习实践】B站up刘二大人之Logistics Regression-代码理解与实现(5/9)

下一篇:

【Pytorch深度学习实践】B站up刘二大人之Dataset & DataLoader-代码理解与实现(7/9)

目录:

【Pytorch深度学习实践】B站up刘二大人课程笔记——目录与索引(已完结)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/103783
推荐阅读
相关标签
  

闽ICP备14008679号