当前位置:   article > 正文

基于卷积神经网络的花卉识别(pytorch框架)【python源码+UI界面+前端界面+功能源码详解】_python基于卷积神经网络的花卉识别系统设计与实现

python基于卷积神经网络的花卉识别系统设计与实现

(一)简介

基于卷积神经网络的花卉识别系统是在pytorch框架下实现的,系统中有两个模型可选resnet50模型和VGG16模型,这两个模型可用于模型效果对比。该系统涉及的技术栈有,UI界面:python + pyqt5,前端界面:python + flask 

该项目是在pycharm和anaconda搭建的虚拟环境执行,pycharm和anaconda安装和配置可观看教程:


超详细的pycharm+anaconda搭建python虚拟环境_pycharm配置anaconda虚拟环境-CSDN博客

pycharm+anaconda搭建python虚拟环境_哔哩哔哩_bilibili

(二)项目介绍

1. pycharm打开项目界面如下

​​

2. 数据集 

​​

​​

3.GUI界面(技术栈:pyqt5+python) 

​​

​​

4.前端界面(技术栈:python+flask)

​​

​​

5. 核心代码 
  1. class MainProcess:
  2. def __init__(self, train_path, test_path, model_name):
  3. self.train_path = train_path
  4. self.test_path = test_path
  5. self.model_name = model_name
  6. self.device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
  7. def main(self, epochs):
  8. # 记录训练过程
  9. log_file_name = './results/vgg16训练和验证过程.txt'
  10. # 记录正常的 print 信息
  11. sys.stdout = Logger(log_file_name)
  12. print("using {} device.".format(self.device))
  13. # 开始训练,记录开始时间
  14. begin_time = time()
  15. # 加载数据
  16. train_loader, validate_loader, class_names, train_num, val_num = self.data_load()
  17. print("class_names: ", class_names)
  18. train_steps = len(train_loader)
  19. val_steps = len(validate_loader)
  20. # 加载模型
  21. model = self.model_load() # 创建模型
  22. # 网络结构可视化
  23. x = torch.randn(16, 3, 224, 224) # 随机生成一个输入
  24. model_visual_path = 'results/vgg16_visual.onnx' # 模型结构保存路径
  25. torch.onnx.export(model, x, model_visual_path) # 将 pytorch 模型以 onnx 格式导出并保存
  26. # netron.start(model_visual_path) # 浏览器会自动打开网络结构
  27. # load pretrain weights
  28. # download url: https://download.pytorch.org/models/vgg16-397923af.pth
  29. model_weight_path = "models/vgg16-pre.pth"
  30. assert os.path.exists(model_weight_path), "file {} does not exist.".format(model_weight_path)
  31. model.load_state_dict(torch.load(model_weight_path, map_location='cpu'))
  32. # 更改Vgg16模型的最后一层
  33. model.classifier[-1] = nn.Linear(4096, len(class_names), bias=True)
  34. # 将模型放入GPU中
  35. model.to(self.device)
  36. # 定义损失函数
  37. loss_function = nn.CrossEntropyLoss()
  38. # 定义优化器
  39. params = [p for p in model.parameters() if p.requires_grad]
  40. optimizer = optim.Adam(params=params, lr=0.0001)
  41. train_loss_history, train_acc_history = [], []
  42. test_loss_history, test_acc_history = [], []
  43. best_acc = 0.0
  44. for epoch in range(0, epochs):
  45. # 下面是模型训练
  46. model.train()
  47. running_loss = 0.0
  48. train_acc = 0.0
  49. train_bar = tqdm(train_loader, file=sys.stdout)
  50. # 进来一个batch的数据,计算一次梯度,更新一次网络
  51. for step, data in enumerate(train_bar):
  52. images, labels = data # 获取图像及对应的真实标签
  53. optimizer.zero_grad() # 清空过往梯度
  54. outputs = model(images.to(self.device)) # 得到预测的标签
  55. train_loss = loss_function(outputs, labels.to(self.device)) # 计算损失
  56. train_loss.backward() # 反向传播,计算当前梯度
  57. optimizer.step() # 根据梯度更新网络参数
  58. # print statistics
  59. running_loss += train_loss.item()
  60. predict_y = torch.max(outputs, dim=1)[1] # 每行最大值的索引
  61. # torch.eq()进行逐元素的比较,若相同位置的两个元素相同,则返回True;若不同,返回False
  62. train_acc += torch.eq(predict_y, labels.to(self.device)).sum().item()
  63. train_bar.desc = "train epoch[{}/{}] loss:{:.3f}".format(epoch + 1,
  64. epochs,
  65. train_loss)
  66. # 下面是模型验证
  67. model.eval() # 不启用 BatchNormalization 和 Dropout,保证BN和dropout不发生变化
  68. val_acc = 0.0 # accumulate accurate number / epoch
  69. testing_loss = 0.0
  70. with torch.no_grad(): # 张量的计算过程中无需计算梯度
  71. val_bar = tqdm(validate_loader, file=sys.stdout)
  72. for val_data in val_bar:
  73. val_images, val_labels = val_data
  74. outputs = model(val_images.to(self.device))
  75. val_loss = loss_function(outputs, val_labels.to(self.device)) # 计算损失
  76. testing_loss += val_loss.item()
  77. predict_y = torch.max(outputs, dim=1)[1] # 每行最大值的索引
  78. # torch.eq()进行逐元素的比较,若相同位置的两个元素相同,则返回True;若不同,返回False
  79. val_acc += torch.eq(predict_y, val_labels.to(self.device)).sum().item()
  80. train_loss = running_loss / train_steps
  81. train_accurate = train_acc / train_num
  82. test_loss = testing_loss / val_steps
  83. val_accurate = val_acc / val_num
  84. train_loss_history.append(train_loss)
  85. train_acc_history.append(train_accurate)
  86. test_loss_history.append(test_loss)
  87. test_acc_history.append(val_accurate)
  88. print('[epoch %d] train_loss: %.3f val_accuracy: %.3f' %
  89. (epoch + 1, train_loss, val_accurate))
  90. if val_accurate > best_acc:
  91. best_acc = val_accurate
  92. torch.save(model.state_dict(), self.model_name)
  93. # 记录结束时间
  94. end_time = time()
  95. run_time = end_time - begin_time
  96. print('该循环程序运行时间:', run_time, "s")
  97. # 绘制模型训练过程图
  98. self.show_loss_acc(train_loss_history, train_acc_history,
  99. test_loss_history, test_acc_history)
  100. # 画热力图
  101. self.heatmaps(model, validate_loader, class_names)

该系统可以训练自己的数据集,训练过程也比较简单,只需指定自己数据集中训练集和测试集的路径,训练后模型名称和指定训练的轮数即可 

​​

训练结束后可输出以下结果:
a. 训练过程的损失曲线

​​

 b. 模型训练过程记录,模型每一轮训练的损失和精度数值记录

​​

c. 模型结构

​​

模型评估可输出:
a. 混淆矩阵

​​

b. 测试过程和精度数值

​​

(三)资源获取方式

编码不易,源码有偿获取喔!

​​

资源主要包括以下内容:完整的程序代码文件、训练好的模型、数据集、UI界面、前端界面。欢迎大家咨询! 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/716793
推荐阅读
相关标签
  

闽ICP备14008679号