当前位置:   article > 正文

【深度学习】——利用pytorch搭建一个完整的深度学习项目(构建模型、加载数据集、参数配置、训练、模型保存、预测)_实体抽取 模型建立 保存 训练 测试

实体抽取 模型建立 保存 训练 测试

目录

 一、深度学习项目的基本构成

二、实战(猫狗分类)

1、数据集下载

2、dataset.py文件

3、model.py

4、config.py

5、predict.py


 一、深度学习项目的基本构成

一个深度学习模型一般包含以下几个文件:

datasets文件夹:存放需要训练和测试的数据集

dataset.py:加载数据集,将数据集转换为固定的格式,返回图像集和标签集

model.py:根据自己的需求搭建一个深度学习模型,具体搭建方法参考

【深度学习】——pytorch搭建模型及相关模型icon-default.png?t=L892https://blog.csdn.net/qq_45769063/article/details/120246601config.py:将需要配置的参数均放在这个文件中,比如batchsize,transform,epochs,lr等超参数

train.py:加载数据集,训练

predict.py:加载训练好的模型,对图像进行预测

requirements.txt:一些需要的库,通过pip install -r requirements.txt可以进行安装

readme:记录一些log

log文件:存放训练好的模型

loss文件夹:存放训练记录的loss图像

二、实战(猫狗分类)

1、数据集下载

下载数据

  • 训练数据

链接: https://pan.baidu.com/s/1UOJUi-Wm6w0D7JGQduq7Ow 提取码: 485q

  • 测试数据

链接: https://pan.baidu.com/s/1sSgLFkv9K3ciRVLAryWUKg 提取码: gyvs

下载好之后解压,可以发现训练数据以cat或dog开头,测试数据都以数字命名。

这里我重命名了,cats以0开始,dogs以1开始

创建dataset文件夹

一般习惯这样构造目录,直接人为划分三个数据集,当然也可以用程序进行划分

 

2、dataset.py文件

主要是继承dataset类,然后在__getitem__方法中编写代码,得到一个可以通过字典key来取值的实例化对象

  1. ## 导入模块
  2. from torch.utils.data import DataLoader,Dataset
  3. from skimage import io,transform
  4. import matplotlib.pyplot as plt
  5. import os
  6. import torch
  7. from torchvision import transforms, utils
  8. from PIL import Image
  9. import pandas as pd
  10. import numpy as np
  11. #过滤警告信息
  12. import warnings
  13. warnings.filterwarnings("ignore")
  14. class MyDataset(Dataset): # 继承Dataset
  15. def __init__(self, path_dir, transform=None,train=True,test=True,val=True): # 初始化一些属性
  16. self.path_dir = path_dir # 文件路径,如'.\data\cat-dog'
  17. self.transform = transform # 对图形进行处理,如标准化、截取、转换等
  18. self.images = os.listdir(self.path_dir) # 把路径下的所有文件放在一个列表中
  19. self.train = train
  20. self.test = test
  21. self.val = val
  22. if self.test:
  23. self.images = os.listdir(self.path_dir + r"\cats")
  24. self.images.extend(os.listdir(self.path_dir+r"\dogs"))
  25. if self.train:
  26. self.images = os.listdir(self.path_dir + r"\cats")
  27. self.images.extend(os.listdir(self.path_dir+r"\dogs"))
  28. if self.val:
  29. self.images = os.listdir(self.path_dir + r"\cats")
  30. self.images.extend(os.listdir(self.path_dir+r"\dogs"))
  31. def __len__(self): # 返回整个数据集的大小
  32. return len(self.images)
  33. def __getitem__(self, index): # 根据索引index返回图像及标签
  34. image_index = self.images[index] # 根据索引获取图像文件名称
  35. if image_index[0] == "0":
  36. img_path = os.path.join(self.path_dir,"cats", image_index) # 获取图像的路径或目录
  37. else:
  38. img_path = os.path.join(self.path_dir,"dogs", image_index) # 获取图像的路径或目录
  39. img = Image.open(img_path).convert('RGB') # 读取图像
  40. # 根据目录名称获取图像标签(cat或dog)
  41. # 把字符转换为数字cat-0,dog-1
  42. label = 0 if image_index[0] == "0" else 1
  43. if self.transform is not None:
  44. img = self.transform(img)
  45. # print(type(img))
  46. # print(img.size)
  47. return img, label

3、model.py

模型是在VGG16的基础上进行修改的,主要是增加了一层卷积层和两层全连接层,将输入的图像resize成448,448大小

  1. from torch import nn
  2. class VGG19(nn.Module):
  3. def __init__(self, num_classes=2):
  4. super(VGG19, self).__init__() # 继承父类属性和方法
  5. # 根据前向传播的顺序,搭建各个子网络模块
  6. ## 十四个卷积层,每个卷积模块都有卷积层、激活层和池化层,用nn.Sequential()这个容器将各个模块存放起来
  7. # [1,3,448,448]
  8. self.conv0 = nn.Sequential(
  9. nn.Conv2d(3, 32, (3, 3), (1, 1), (1, 1)),
  10. nn.ReLU(inplace=True), # inplace = True表示是否进行覆盖计算
  11. nn.MaxPool2d((2, 2), (2, 2))
  12. )
  13. # [1,32,224,224]
  14. self.conv1 = nn.Sequential(
  15. nn.Conv2d(32, 64, (3, 3), (1, 1), (1, 1)),
  16. nn.ReLU(inplace=True), # inplace = True表示是否进行覆盖计算
  17. )
  18. # [1,64,224,224]
  19. self.conv2 = nn.Sequential(
  20. nn.Conv2d(64, 64, (3, 3), (1, 1), (1, 1)),
  21. nn.ReLU(inplace=True), # inplace = True表示是否进行覆盖计算
  22. nn.MaxPool2d((2, 2), (2, 2))
  23. )
  24. # [1,64,112,112]
  25. self.conv3 = nn.Sequential(
  26. nn.Conv2d(64, 128, (3, 3), (1, 1), (1, 1)),
  27. nn.ReLU(inplace=True), # inplace = True表示是否进行覆盖计算
  28. )
  29. # [1,128,112,112]
  30. self.conv4 = nn.Sequential(
  31. nn.Conv2d(128, 128, (3, 3), (1, 1), (1, 1)),
  32. nn.ReLU(inplace=True), # inplace = True表示是否进行覆盖计算
  33. nn.MaxPool2d((2, 2), (2, 2))
  34. )
  35. # [1,128,56,56]
  36. self.conv5 = nn.Sequential(
  37. nn.Conv2d(128, 256, (3, 3), (1, 1), (1, 1)),
  38. nn.ReLU(inplace=True), # inplace = True表示是否进行覆盖计算
  39. )
  40. # [1,256,56,56]
  41. self.conv6 = nn.Sequential(
  42. nn.Conv2d(256, 256, (3, 3), (1, 1), (1, 1)),
  43. nn.ReLU(inplace=True), # inplace = True表示是否进行覆盖计算
  44. )
  45. # [1,256,56,56]
  46. self.conv7 = nn.Sequential(
  47. nn.Conv2d(256, 256, (3, 3), (1, 1), (1, 1)),
  48. nn.ReLU(inplace=True), # inplace = True表示是否进行覆盖计算
  49. nn.MaxPool2d((2, 2), (2, 2))
  50. )
  51. # [1,256,28,28]
  52. self.conv8 = nn.Sequential(
  53. nn.Conv2d(256, 512, (3, 3), (1, 1), (1, 1)),
  54. nn.ReLU(inplace=True)
  55. )
  56. # [1,512,28,28]
  57. self.conv9 = nn.Sequential(
  58. nn.Conv2d(512, 512, (3, 3), (1, 1), (1, 1)),
  59. nn.ReLU(inplace=True)
  60. )
  61. # [1,512,28,28]
  62. self.conv10 = nn.Sequential(
  63. nn.Conv2d(512, 512, (3, 3), (1, 1), (1, 1)),
  64. nn.ReLU(inplace=True),
  65. nn.MaxPool2d((2, 2), (2, 2))
  66. )
  67. # [1,512,14,14]
  68. self.conv11 = nn.Sequential(
  69. nn.Conv2d(512, 512, (3, 3), (1, 1), (1, 1)),
  70. nn.ReLU(inplace=True),
  71. )
  72. # [1,512,14,14]
  73. self.conv12 = nn.Sequential(
  74. nn.Conv2d(512, 512, (3, 3), (1, 1), (1, 1)),
  75. nn.ReLU(inplace=True),
  76. )
  77. # [1,512,14,14]-->[1,512,7,7]
  78. self.conv13 = nn.Sequential(
  79. nn.Conv2d(512, 512, (3, 3), (1, 1), (1, 1)),
  80. nn.ReLU(inplace=True),
  81. nn.MaxPool2d((2, 2), (2, 2))
  82. )
  83. # 五个全连接层,每个全连接层之间存在激活层和dropout层
  84. self.classfier = nn.Sequential(
  85. # [1*512*7*7]
  86. nn.Linear(1 * 512 * 7 * 7, 4096),
  87. nn.ReLU(True),
  88. nn.Dropout(),
  89. # 4096
  90. nn.Linear(4096, 4096),
  91. nn.ReLU(True),
  92. nn.Dropout(),
  93. # 4096-->1000
  94. nn.Linear(4096, 1000),
  95. nn.ReLU(True),
  96. nn.Dropout(),
  97. # 1000-->100
  98. nn.Linear(1000, 100),
  99. nn.ReLU(True),
  100. nn.Dropout(),
  101. nn.Linear(100, num_classes),
  102. nn.Softmax(dim=1)
  103. )
  104. # 前向传播函数
  105. def forward(self, x):
  106. # 十四个卷积层
  107. x = self.conv0(x)
  108. x = self.conv1(x)
  109. x = self.conv2(x)
  110. x = self.conv3(x)
  111. x = self.conv4(x)
  112. x = self.conv5(x)
  113. x = self.conv6(x)
  114. x = self.conv7(x)
  115. x = self.conv8(x)
  116. x = self.conv9(x)
  117. x = self.conv10(x)
  118. x = self.conv11(x)
  119. x = self.conv12(x)
  120. x = self.conv13(x)
  121. # 将图像扁平化为一维向量,[1,512,7,7]-->1*512*7*7
  122. x = x.view(x.size(0), -1)
  123. # 三个全连接层
  124. output = self.classfier(x)
  125. return output
  126. if __name__ == '__main__':
  127. import torch
  128. net = VGG19()
  129. print(net)
  130. input = torch.randn([1,3,448,448])
  131. output = net(input)
  132. print(output)

4、config.py

  1. from torchvision import transforms as T
  2. # 数据集准备
  3. trainFlag = True
  4. valFlag = True
  5. testFlag = False
  6. trainpath = r".\datasets\train"
  7. testpath = r".\datasets\test"
  8. valpath = r".\datasets\val"
  9. transform_ = T.Compose([
  10. T.Resize(448), # 缩放图片(Image),保持长宽比不变,最短边为224像素
  11. T.CenterCrop(448), # 从图片中间切出224*224的图片
  12. T.ToTensor(), # 将图片(Image)转成Tensor,归一化至[0, 1]
  13. T.Normalize(mean=[.5, .5, .5], std=[.5, .5, .5]) # 标准化至[-1, 1],规定均值和标准差
  14. ])
  15. # 训练相关参数
  16. batchsize = 2
  17. lr = 0.001
  18. epochs = 100

5、predict.py

 加载训练好的模型,对图像进行预测

  1. from pytorch.Cats_Dogs.model import VGG19
  2. from PIL import Image
  3. import torch
  4. from pytorch.Cats_Dogs.configs import transform_
  5. def predict_(model, img):
  6. # 将输入的图像从array格式转为image
  7. img = Image.fromarray(img)
  8. # 自己定义的pytorch transform方法
  9. img = transform_(img)
  10. # .view()用来增加一个维度
  11. # 我的图像的shape为(1, 64, 64)
  12. # channel为1,H为64, W为64
  13. # 因为训练的时候输入的照片的维度为(batch_size, channel, H, W) 所以需要再新增一个维度
  14. # 增加的维度是batch size,这里输入的一张图片,所以为1
  15. img = img.view(1, 1, 64, 64)
  16. output = model(img)
  17. _, prediction = torch.max(output, 1)
  18. # 将预测结果从tensor转为array,并抽取结果
  19. prediction = prediction.numpy()[0]
  20. return prediction
  21. if __name__ == '__main__':
  22. img_path = r"*.jpg"
  23. img = Image.open(img_path).convert('RGB') # 读取图像
  24. device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
  25. # device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
  26. model = VGG19()
  27. # save_path,和模型的保存那里的save_path一样
  28. # .eval() 预测结果前必须要做的步骤,其作用为将模型转为evaluation模式
  29. # Sets the module in evaluation mode.
  30. model.load_state_dict(torch.load("*.pth"))
  31. model.eval()
  32. pred = predict_(model,img)
  33. print(pred)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/897095
推荐阅读
相关标签
  

闽ICP备14008679号