赞
踩
这节课的内容跟上一节的递进关系,在于输入数据的维度,不再是原本的一维数值(标量);而是升级为多维向量,这更符合多个自变量共同影响输出的实际应用场景,想起了吴恩达课程中的房价预测模型,卧室数量、厨房数量等,可以绑定在一起构成向量的形式,作为输入。
anaconda
安装工具包中的自带的压缩文本数据,所以直接采用numpy
中的loadtxt
读取,这个函数可以直接读取Linux
下压缩的格式,此处是.gz
;double
类型的数据,而普通的显卡读取float32
;label
,这是在文本文件中已经确定好了的,最后一列为y_data
,其余为x_data
;init
中,不再只有一个linear
函数;
self.linear
,此处是8 → 6 → 4 → 1
;其中两个参数分别为in_channel
数量和out_channel
数量;Sigmoid
函数,将最终的输出值,转为0-1
区间上的概率值,这个内容是上一节中通过函数句柄F.sigmoid
实现的,但此处的函数名称要大写,容易出错;forward
中,直接调用init
中定义好的各层,此处要注意,输入为x
,返回值也定义为x
吧:x = self.sigmoid(self.linear1(x))
,否则出错了不好排除问题,并且sigmoid
是小写开头,因为在init
中,定义的时候,是以小写开头定义的,注意逻辑;#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: 07_MultipleDimensionInput_handType.py
@time: 2022/04/10
@desc:
"""
import numpy as np
import torch
import matplotlib.pyplot as plt
import os
os.environ['KMP_DUPLICATE_LIB_OK'] = 'True'
xy = np.loadtxt('../diabetes.csv.gz', delimiter=',', dtype=np.float32)
x_data = torch.from_numpy(xy[:, :-1])
y_data = torch.from_numpy(xy[:, [-1]])
class Model(torch.nn.Module):
def __init__(self):
super(Model, self).__init__()
self.linear1 = torch.nn.Linear(8, 6)
self.linear2 = torch.nn.Linear(6, 4)
self.linear3 = torch.nn.Linear(4, 1)
self.sigmoid = torch.nn.Sigmoid()
def forward(self, x):
x = self.sigmoid(self.linear1(x))
x = self.sigmoid(self.linear2(x))
x = self.sigmoid(self.linear3(x))
return x
model = Model()
criterion = torch.nn.BCELoss(reduction='mean')
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)
epoch_list = []
loss_list = []
for epoch in range(100):
# Forward 前向传播
y_hat = model(x_data)
loss = criterion(y_hat, y_data)
print(epoch, loss.item())
# Backward 反向传播
optimizer.zero_grad()
loss.backward()
# Update 更新
optimizer.step()
epoch_list.append(epoch)
loss_list.append(loss.item())
if epoch % 10 == 9:
y_pred_label = torch.where(y_hat >= 0.5, torch.tensor([1.0]), torch.tensor([0.0]))
accuracy = torch.eq(y_pred_label, y_data).sum().item() / y_data.size(0)
print("loss = ", loss.item(), "acc = ", accuracy)
plt.plot(epoch_list, loss_list)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()
【Pytorch深度学习实践】B站up刘二大人之Logistics Regression-代码理解与实现(5/9)
【Pytorch深度学习实践】B站up刘二大人之Dataset & DataLoader-代码理解与实现(7/9)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。