当前位置:   article > 正文

pytorch如何搭建一个最简单的模型,_pytorch模型搭建

pytorch模型搭建

一、搭建模型的步骤

PyTorch 中,可以使用 torch.nn 模块来搭建深度学习模型。具体步骤如下:

  1. 定义一个继承自 torch.nn.Module 的类,这个类将作为我们自己定义的模型。

  2. 在类的构造函数 __init__() 中定义网络的各个层和参数。可以使用 torch.nn 模块中的各种层,如 Conv2dBatchNorm2dLinear 等。

  3. 在类中定义前向传播函数 forward(),实现模型的具体计算过程。

  4. 将模型部署到 GPU 上,可以使用 model.to(device) 将模型移动到指定的 GPU 设备上。

二、简单的例子

下面是一个简单的例子,演示了如何使用 torch.nn 模块搭建一个简单的全连接神经网络:

  1. import torch.nn as nn
  2. class MyNet(nn.Module):
  3. def __init__(self):
  4. super(MyNet, self).__init__()
  5. self.fc1 = nn.Linear(784, 512)
  6. self.relu = nn.ReLU()
  7. self.fc2 = nn.Linear(512, 10)
  8. def forward(self, x):
  9. x = x.view(-1, 784)
  10. x = self.fc1(x)
  11. x = self.relu(x)
  12. x = self.fc2(x)
  13. return x

MyNet 的神经网络类,它继承自 torch.nn.Module。在构造函数 __init__() 中定义了两个全连接层,一个 ReLU 激活函数,并将它们作为网络的成员变量。在前向传播函数 forward() 中,首先将输入的图像数据 x 压成一维向量,然后依次经过两个全连接层和一个 ReLU 激活函数,最终得到模型的输出结果。

在模型训练之前,需要将模型部署到 GPU 上,可以使用以下代码将模型移动到 GPU 上:

  1. device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  2. model = MyNet().to(device)

如何将loss函数添加到模型中去呢?

在 PyTorch 中,通常将损失函数作为单独的对象来定义,并在训练过程中手动计算和优化损失。为了将损失函数添加到模型中,需要在模型类中添加一个成员变量,然后在前向传播函数中计算损失。

下面是一个例子,演示了如何在模型中添加交叉熵损失函数:

  1. import torch.nn as nn
  2. class MyNet(nn.Module):
  3. def __init__(self):
  4. super(MyNet, self).__init__()
  5. self.fc1 = nn.Linear(784, 512)
  6. self.relu = nn.ReLU()
  7. self.fc2 = nn.Linear(512, 10)
  8. self.loss_fn = nn.CrossEntropyLoss()
  9. def forward(self, x, y):
  10. x = x.view(-1, 784)
  11. x = self.fc1(x)
  12. x = self.relu(x)
  13. x = self.fc2(x)
  14. loss = self.loss_fn(x, y)
  15. return x, loss

在模型类 MyNet 的构造函数中添加了一个成员变量 self.loss_fn,它是交叉熵损失函数。在前向传播函数 forward() 中,传入两个参数 xy,其中 x 是输入图像数据,y 是对应的标签。在函数中先执行正向传播计算,然后计算交叉熵损失,并将损失值作为输出返回。

实际训练代码

在实际训练过程中,首先将模型输出结果 x 和标签 y 传入前向传播函数 forward() 中计算损失,然后使用优化器更新模型的权重和偏置。代码如下:

  1. model = MyNet()
  2. optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
  3. for inputs, labels in data_loader:
  4. inputs = inputs.to(device)
  5. labels = labels.to(device)
  6. optimizer.zero_grad()
  7. outputs, loss = model(inputs, labels)
  8. loss.backward()
  9. optimizer.step()

在上面的代码中,使用随机梯度下降优化器 torch.optim.SGD 来更新模型的参数。在每个批次中,首先将输入数据和标签移动到 GPU 上,然后使用 optimizer.zero_grad() 将梯度清零。接着执行前向传播计算,并得到损失值 loss。最后使用 loss.backward() 计算梯度并执行反向传播,使用 optimizer.step() 更新模型参数。

2023.03.27更新 完整的代码

  1. # -*-coding:utf-8-*-
  2. # !/usr/bin/env python
  3. # @Time : 2023/3/27 上午11:00
  4. # @Author : loveinfall uestc
  5. # @File : csdn_test_.py
  6. # @Description :
  7. import torch
  8. import torch.nn as nn
  9. import torch.utils.data as data
  10. import cv2
  11. ####################### model ###########################
  12. class MyNet(nn.Module):
  13. def __init__(self):
  14. super(MyNet, self).__init__()
  15. self.fc1 = nn.Linear(784, 512)
  16. self.relu = nn.ReLU()
  17. self.fc2 = nn.Linear(512, 10)
  18. def forward(self, x):
  19. x = x.view(-1, 784)
  20. x = self.fc1(x)
  21. x = self.relu(x)
  22. x = self.fc2(x)
  23. return x
  24. ###################### end ##############################
  25. ################# loss 函数 #############################
  26. loss_fn = nn.CrossEntropyLoss()
  27. ################## end ################################
  28. #################### dataloader 需要自己构建 ############
  29. class image_folder(data.Dataset):
  30. def __init__(self):
  31. self.image_dirs = []#构造数据读取路径列表
  32. self.label_dirs = []
  33. def __getitem__(self,index):
  34. image = cv2.imread(self.image_dirs[index])
  35. label = 'read data'#根据实际情况,写
  36. return image,label
  37. def __len__(self):
  38. return 'len(data)'
  39. train_dataset = image_folder()
  40. data_loader = data.DataLoader(
  41. train_dataset,
  42. batch_size=3,
  43. shuffle=True,
  44. num_workers=2,
  45. pin_memory=True)
  46. #################### end ################################
  47. ##################### train #######################@#####
  48. device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  49. model = MyNet().to(device)
  50. optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
  51. for inputs, labels in data_loader:
  52. inputs = inputs.to(device)
  53. labels = labels.to(device)
  54. optimizer.zero_grad()
  55. outputs = model(inputs)
  56. loss = loss_fn(outputs,labels)
  57. loss.backward()
  58. optimizer.step()

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/537911
推荐阅读
相关标签
  

闽ICP备14008679号