当前位置:   article > 正文

图像识别模型哪家强?19款经典CNN模型实践出真知【以眼疾识别数据为基准,对比MobileNet系列/EfficientNet系列/VGG系列/ResNet系列/i、xception系列】

图像识别模型

在我们前面的系列博文中,我们也开发了很多图像识别类的模型,但是大都是考虑计算量参数量的问题我们首选的都是轻量级的网络模型,这类模型有一个显著的特点就是速度很快,但是精度有一定的不足,感兴趣的话可以自行移步阅读前面的系列博文即可:

《移动端轻量级模型开发谁更胜一筹,efficientnet、mobilenetv2、mobilenetv3、ghostnet、mnasnet、shufflenetv2驾驶危险行为识别模型对比开发测试》

《基于Pytorch框架的轻量级卷积神经网络垃圾分类识别系统》

《基于轻量级卷积神经网络模型实践Fruits360果蔬识别——自主构建CNN模型、轻量化改造设计lenet、alexnet、vgg16、vgg19和mobilenet共六种CNN模型实验对比分析》

《探索轻量级模型性能上限,基于GhostNet模型开发构建多商品细粒度图像识别系统》

《基于轻量级神经网络GhostNet开发构建的200种鸟类细粒度识别分析系统》

《基于MobileNet的轻量级卷积神经网络实现玉米螟虫不同阶段识别分析》

《python开发构建轻量级卷积神经网络模型实现手写甲骨文识别系统》

《基于轻量级模型GHoshNet开发构建眼球眼疾识别分析系统,构建全方位多层次参数对比分析实验》

 本文主要是考虑将CNN领域内比较经典的一些网络模型都拿过来构建图像识别模型,然后在完全相同的测试条件下进行评估测试分析,而不必受限于参数量的问题只能去选择一些较为轻量级的网络模型,这里我们一共选择了19中不同的CNN模型,如下:

['EfficientNetB0', 'EfficientNetB1', 'EfficientNetB2', 'EfficientNetB3', 'EfficientNetB4', 'EfficientNetB5', 'EfficientNetB6', 'EfficientNetB7', 'inceptionv2', 'inceptionv3', 'mobilenet', 'mobilenetv2', 'mobilenetv3l', 'mobilenetv3s', 'resnet34', 'resnet50', 'vgg13', 'vgg16', 'xception']

囊括了多种不同的技术架构。

这里所使用到的网络模型均为公开可用的网络模型并非自己搭建或者是有改动结构的网络模型,相应的模型实现均可以从开源社区寻找。

本文主要是想从实验测试评估的角度来对不同模型的性能进行对比分析,这里实验数据选择的是前文使用到的眼疾识别数据集,数据实例如下所示:

训练数据集与测试数据集比例为:3:1。

等待所有模型均开发训练完成之后,我们对其进行测试评估,分别计算:准确率、精确率、召回率和F1值这四种主流的评价指标。各个模型详细实验对比结果如下所示:

  1. {
  2. 'EfficientNetB0': {
  3. 'accuracy': 0.5777777777777777,
  4. 'precision': 0.6465168063365406,
  5. 'recall': 0.591312767669581,
  6. 'f1': 0.5595602362891137
  7. },
  8. 'EfficientNetB1': {
  9. 'accuracy': 0.5333333333333333,
  10. 'precision': 0.5703872251301667,
  11. 'recall': 0.5608795309604018,
  12. 'f1': 0.4999133153555355
  13. },
  14. 'EfficientNetB2': {
  15. 'accuracy': 0.5266666666666666,
  16. 'precision': 0.5804374595861779,
  17. 'recall': 0.5512719717931072,
  18. 'f1': 0.4998350979479064
  19. },
  20. 'EfficientNetB3': {
  21. 'accuracy': 0.6977777777777778,
  22. 'precision': 0.7610020529552205,
  23. 'recall': 0.6994491010765668,
  24. 'f1': 0.6919357120540143
  25. },
  26. 'EfficientNetB4': {
  27. 'accuracy': 0.5155555555555555,
  28. 'precision': 0.49793943382280537,
  29. 'recall': 0.5433492927589958,
  30. 'f1': 0.4772574750287548
  31. },
  32. 'EfficientNetB5': {
  33. 'accuracy': 0.35333333333333333,
  34. 'precision': 0.3445015503136522,
  35. 'recall': 0.3802532130608958,
  36. 'f1': 0.28952507537165667
  37. },
  38. 'EfficientNetB6': {
  39. 'accuracy': 0.3288888888888889,
  40. 'precision': 0.38284450495565236,
  41. 'recall': 0.3572425408026922,
  42. 'f1': 0.2837801827840652
  43. },
  44. 'EfficientNetB7': {
  45. 'accuracy': 0.4777777777777778,
  46. 'precision': 0.5343918428980436,
  47. 'recall': 0.5095940398083537,
  48. 'f1': 0.4063241796506389
  49. },
  50. 'inceptionv2': {
  51. 'accuracy': 0.98,
  52. 'precision': 0.97894903450459,
  53. 'recall': 0.9812210241183519,
  54. 'f1': 0.9796562575647543
  55. },
  56. 'inceptionv3': {
  57. 'accuracy': 0.94,
  58. 'precision': 0.9415033821851232,
  59. 'recall': 0.9426010116017247,
  60. 'f1': 0.9388632363793055
  61. },
  62. 'mobilenet': {
  63. 'accuracy': 0.9222222222222223,
  64. 'precision': 0.9251961833422508,
  65. 'recall': 0.9230761747687337,
  66. 'f1': 0.920286598373771
  67. },
  68. 'mobilenetv2': {
  69. 'accuracy': 0.9266666666666666,
  70. 'precision': 0.9315206911180532,
  71. 'recall': 0.9294403587264678,
  72. 'f1': 0.9261134880154879
  73. },
  74. 'mobilenetv3l': {
  75. 'accuracy': 0.8355555555555556,
  76. 'precision': 0.835733146770314,
  77. 'recall': 0.8410797800019222,
  78. 'f1': 0.833413221249241
  79. },
  80. 'mobilenetv3s': {
  81. 'accuracy': 0.6866666666666666,
  82. 'precision': 0.7805345330675236,
  83. 'recall': 0.6803494975701158,
  84. 'f1': 0.6771095968225628
  85. },
  86. 'resnet34': {
  87. 'accuracy': 0.9622222222222222,
  88. 'precision': 0.96471027479092,
  89. 'recall': 0.962955149242069,
  90. 'f1': 0.9623192643451014
  91. },
  92. 'resnet50': {
  93. 'accuracy': 0.9066666666666666,
  94. 'precision': 0.9122247407458675,
  95. 'recall': 0.9099655108143448,
  96. 'f1': 0.905082465561362
  97. },
  98. 'vgg13': {
  99. 'accuracy': 0.9111111111111111,
  100. 'precision': 0.9171780308871714,
  101. 'recall': 0.9131506582377616,
  102. 'f1': 0.9087651122667854
  103. },
  104. 'vgg16': {
  105. 'accuracy': 0.8733333333333333,
  106. 'precision': 0.8757345045942159,
  107. 'recall': 0.8726670185638566,
  108. 'f1': 0.8720521353758593
  109. },
  110. 'xception': {
  111. 'accuracy': 0.9711111111111111,
  112. 'precision': 0.9700729590379514,
  113. 'recall': 0.972856683818572,
  114. 'f1': 0.9709933608374804
  115. }
  116. }

简单介绍下上述使用的四种指标:

准确率(Accuracy):即分类器正确分类的样本数占总样本数的比例,通常用于评估分类模型的整体预测能力。计算公式为:准确率 = (TP + TN) / (TP + TN + FP + FN),其中 TP 表示真正例(分类器将正例正确分类的样本数)、TN 表示真负例(分类器将负例正确分类的样本数)、FP 表示假正例(分类器将负例错误分类为正例的样本数)、FN 表示假负例(分类器将正例错误分类为负例的样本数)。

精确率(Precision):即分类器预测为正例中实际为正例的样本数占预测为正例的样本数的比例。精确率评估分类器在预测为正例时的准确程度,可以避免过多地预测假正例。计算公式为:精确率 = TP / (TP + FP)。

召回率(Recall):即分类器正确预测为正例的样本数占实际为正例的样本数的比例。召回率评估分类器在实际为正例时的识别能力,可以避免漏掉过多的真正例。计算公式为:召回率 = TP / (TP + FN)。

F1 值(F1-score):综合考虑精确率和召回率,是精确率和召回率的调和平均数。F1 值在评估分类器综合表现时很有用,因为它同时关注了分类器的预测准确性和识别能力。计算公式为:F1 值 = 2 * (精确率 * 召回率) / (精确率 + 召回率)。 F1 值的取值范围在 0 到 1 之间,值越大表示分类器的综合表现越好。

为了能够直观清晰地对比不同模型的评测结果,这里对其进行可视化分析,如下所示:

从对比结果上来看:不难看出inception系列和xception系列的结果最优,而mobilenet这类轻量级的模型效果则处于中游水准,大家如果在实际业务场景下需要选择最合理的参数量的模型可以对照参考这个实验评测结果,根据自己的数据复杂度和算力情况选择合适的模型。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/1017947
推荐阅读
相关标签
  

闽ICP备14008679号