当前位置:   article > 正文

opencv imshow不显示图像_哈工大图像工程学大作业

linux系统中python读取图片opencv为啥运行后不显示图片

6d31a71a771711c996f4c53979cd7363.png

小学期选了一门图像处理相关的课程,还没来的及好好听课就上完了(当时在复习考试),作业算是把之前在C++里面写的东西在python里面又学了一遍,难度不是很大,后面感觉有点体力劳动。

有趣的一点是,这篇文章全部都是我在jupyter里面写的,之后一键导出md文件,在导入到知乎就不用再复制排版了,比较方便。

  1. import cv2 as cv
  2. import matplotlib.pyplot as plt
  3. import matplotlib.image as mpimg
  4. import numpy as np
  5. import copy

实验一、图像处理入门

实验目的:使用 Python + OpenCV,了解图像的基本显示方式,熟悉开发环境。
实验要求:
(1) 在开发环境下,显示 Lena 图像;
(2) 修改目录及文件名,显示磁盘中的指定图像;
(3) 将原有图像宽、高各缩小 1/2,显示原始图像及缩小后图像;
(4) 将原有图像转为灰度图像,任意指定 3 个位置,显示对应像素灰度值(在字符窗口中)。

关键算法:

  1. cv.imread() 读取图片
  2. cv.imshow() 显示图片
  3. cv.nameWindow() 创建窗口
  4. cv.cvtColor() 颜色空间转换
  5. cv.waitKey() 等待按键
  6. cv.destroyAllWindows() 关闭所有窗口
  7. cv.resize()改变图片大小

结果分析:

  1. 成功显示Lena图像
  2. 成功读取磁盘中指定图像
  3. 使用cv.resize()成功改变图片大小,为了直观起见,我是用pyplot进行图片绘制,横纵坐标为像素大小
  4. 使用cv.cvtColor()将图片转换为灰度图,并指定了(200,800), (500,500), (800,200)处显示其灰度值,其灰度值大小分别为216, 63, 75

运行结果:

  1. lena = cv.imread('.imagelena.jpg')
  2. # cv.namedWindow("lena")
  3. # cv.imshow("lena",lena)
  4. # cv.waitKey(0)
  5. # cv.destroyAllWindows())
  6. lena = lena[:,:,::-1] # transform image to rgb
  7. plt.imshow(lena)
  8. plt.show()

4db4e7246fa4f1187da9453fd601fa05.png
  1. season = cv.imread('.imageseason.jpg')
  2. # cv.namedWindow("season")
  3. # cv.imshow("season",season)
  4. # cv.waitKey(0)
  5. # cv.destroyAllWindows()
  6. season = season[:,:,::-1]
  7. plt.imshow(season)
  8. plt.show()

ca18c5a3e22602de2bc88507f296f93e.png
  1. season_re = cv.resize(season, None ,fx = 0.5, fy = 0.5)
  2. fig, ax = plt.subplots(1,2)
  3. ax[0].imshow(season)
  4. ax[1].imshow(season_re)
  5. <matplotlib.image.AxesImage at 0x263069d2808>

a7da84d3a048d2bf4fef8dd533ef844c.png
  1. season = cv.imread('.imageseason.jpg')
  2. season_gray = cv.cvtColor(season,cv.COLOR_RGB2GRAY)
  3. print(season_gray[200,800])
  4. print(season_gray[500,500])
  5. print(season_gray[800,200])
  6. # cv.namedWindow("gray")
  7. # cv.imshow("gray",season_gray)
  8. # cv.waitKey(0)
  9. # cv.destroyAllWindows()
  10. plt.imshow(season_gray, plt.cm.gray)
  11. plt.show()
  12. 216
  13. 63
  14. 75

3e23560d6a4b6395324ecb2e4ca2c763.png

实验二、颜色空间变换

实验目的:使用 Python + OpenCV,完成不同颜色空间变换,熟悉颜色空间的基本概念,对各通道结果进行分析。
实验要求:
(1) 在开发环境下,自行选择有代表性的图像(给出的season与课程PPT中相同,可用于参照测试);
(2) 显示对应的 B、G、R 通道;
(3) 将原有图像转化为 HSV 空间表达,并显示对应分量;
(4) 分别对 RGB 和 HSV 分量显示图像进行分析;
(5) (可选)使用 matplotlib 的 pyplot, 并应用 plot 函数显示图像,看是否能正常显示。进一步使用该函数将图像分成2*4个子窗口,分别在不同子窗口中显示原始图像及不同分量

关键算法:

  1. cv.cvtColor() 颜色空间转换

结果分析:

  1. 成功显示season图像的BGR通道
  2. 成功将season图像转换为HSV通道,并显示其分量
  3. RGB是我们最常见的颜色模型,三个数值代表R、G、B分量,取值均为[0,255]。HSV用来描述颜色相对于RGB等模型显得更加自然。其中H表示色相(Hue)。通常该值取值范围是[0,360],对应红橙黄绿青蓝紫红这样顺序的颜色,构成一个首尾相接的色相环。色相的物理意义就是光的波长,不同波长的光呈现了不同的色相。S都表示饱和度(Saturation)(有时也称为色度、彩度)即色彩的纯净程度。V表示明度(Value/Brightness)。
  4. matplotlib中的pyplot并不能直接显示opencv导入的图像,这是因为opencv采用的是BGR通道,matplotlib采用的是RGB通道,如果需要正常显示,只需要将opencv导入的图像中的R和B通道交换位置。

运行结果:

  1. season = cv.imread('.imageseason.jpg')
  2. season_B = season[:,:,0]
  3. season_G = season[:,:,1]
  4. season_R = season[:,:,2]
  5. fig = plt.figure(dpi=100)
  6. plt.subplot(1,3,1)
  7. plt.title('B channel')
  8. plt.imshow(season_B, plt.cm.gray)
  9. plt.subplot(1,3,2)
  10. plt.title('G channel')
  11. plt.imshow(season_G, plt.cm.gray)
  12. plt.subplot(1,3,3)
  13. plt.title('R channel')
  14. plt.imshow(season_R, plt.cm.gray)
  15. plt.tight_layout()
  16. plt.show()

af542f30df24edfc4755eb262f98cc32.png
  1. season = cv.imread('.imageseason.jpg')
  2. season_HSV = cv.cvtColor(season,cv.COLOR_BGR2HSV)
  3. fig = plt.figure(dpi=100)
  4. plt.subplot(1,3,1)
  5. plt.title('Hue')
  6. plt.imshow(season_HSV[:,:,0], plt.cm.gray)
  7. plt.subplot(1,3,2)
  8. plt.title('Saturation')
  9. plt.imshow(season_HSV[:,:,1], plt.cm.gray)
  10. plt.subplot(1,3,3)
  11. plt.title('Value')
  12. plt.imshow(season_HSV[:,:,2], plt.cm.gray)
  13. plt.tight_layout()
  14. plt.show()

7e27d6a251d5e5e0992fe075caf4abe4.png
  1. season = cv.imread('.imageseason.jpg')
  2. plt.imshow(season) #不能直接正常显示,plt的格式是RGB,OPENCV是BGR,需要转换
  3. plt.show()
  4. season_B = season[:,:,0]
  5. season_G = season[:,:,1]
  6. season_R = season[:,:,2]
  7. fig = plt.figure(dpi=100)
  8. plt.subplot(2,2,1)
  9. plt.title('Original')
  10. plt.imshow(season[:,:,::-1])
  11. plt.subplot(2,2,2)
  12. plt.title('B channel')
  13. plt.imshow(season_B, plt.cm.gray)
  14. plt.subplot(2,2,3)
  15. plt.title('G channel')
  16. plt.imshow(season_G, plt.cm.gray)
  17. plt.subplot(2,2,4)
  18. plt.title('R channel')
  19. plt.imshow(season_R, plt.cm.gray)
  20. plt.tight_layout()
  21. plt.show()

a45388fc9d8ebe448c9bbf8708de4c2b.png

2f84575ae6400ef5f24b8b59a3884a5a.png

实验三、图像去噪与边缘检测

实验目的:使用 Python + OpenCV,完成图像平滑去噪以及边缘检测,熟悉各类滤波器及 Canny 算子的使用,并对结果进行比较分析。
实验要求:
(1) 在开发环境下,对给定图像使用平均滤波、高斯滤波、中值滤波和双边滤波进行平滑去噪;
(2) 观察平滑去噪结果,并进行比较分析;
(3) 在开发环境下,对给定图像使用 Sobel 算子、Laplace 算子和 Canny 算子进行边缘检测;
(4) 观察不同方法结果(包括 Canny 算子使用不同参数的结果),并进行比较分析;
(5) (可选)计算执行每个方法需要的时间,并进行对比分析。注:实验图像包括:orange, pic2, right03, starry_night

关键算法:

  1. cv.blur() 均值滤波
  2. cv.medianBlur() 中值滤波
  3. cv.bilateralFilter() 双边滤波
  4. cv.GaussianBlur() 高斯滤波

结果分析:

  1. 成功对给定图像使用平均滤波、高斯滤波、中值滤波和双边滤波进行平滑去噪
  2. 根据滤波结果,我们可以分析出以下结论
  • 均值滤波是典型的线性滤波算法,它是指在图像上对目标像素给一个模板,该模板包括了其周围的临近像素,再用模板中的全体像素的平均值来代替原来像素值。
  • 中值滤波法是一种非线性平滑技术,它将每一像素点的灰度值设置为该点某邻域窗口内的所有像素点灰度值的中值.
  • 高斯滤波是一种线性平滑滤波,适用于消除高斯噪声,广泛应用于图像处理的减噪过程。通俗的讲,高斯滤波就是对整幅图像进行加权平均的过程,每一个像素点的值,都由其本身和邻域内的其他像素值经过加权平均后得到。
  • 双边滤波是一种非线性的滤波方法,是结合图像的空间邻近度和像素值相似度的一种折衷处理,同时考虑空域信息和灰度相似性,达到保边去噪的目的。具有简单、非迭代、局部的特点。双边滤波的好处是可以做边缘保存,一般过去用的维纳滤波或者高斯滤波去降噪,都会较明显地模糊边缘,对于高频细节的保护效果并不明显。
  1. 成功对给定图像使用 Sobel 算子、Laplace 算子和 Canny 算子进行边缘检测
  2. 根据观察不同边缘检测方法的结果,我们可以得到以下结论
  • Sobel算子是一种离散的微分算子,该算子结合了高斯平滑和微分求导运算。该算子利用局部差分寻找边缘,计算所得的是一个梯度的近似值
  • Laplacian算子是一种二阶导数算子,其具有旋转不变性,可以满足不同方向的图像边缘锐化的要求。通常情况下,其算子的系数之和需要为零。
  • Canny算法具有良好的边缘检测效果,一般有以下四个步骤:
  1. 去噪
  2. 计算梯度幅值与方向
  3. 非极大值抑制
  4. 确定边缘
  • 当Canny算法设置不同的阈值时,会有不同的效果,第一个阈值时低阈值,当边缘像素低于其时,抑制当前边缘像素。第二个阈值为高阈值,当边缘像素高于高阈值时,将其标记为强边缘。当边缘像素处于两者之间时,将该边缘视为虚边缘,视情况保留。
使用%time魔法函数测量语句执行时间,我们可以得到以下结论
  • 均值滤波、中值滤波以及高斯滤波所用的时间远小于双边滤波所用的时间
  • Canny效果良好,且速度较快

运行结果:

  1. star = cv.imread('./image/starry_night.jpg')
  2. orange = cv.imread('./image/orange.jpg')
  3. pic2 = cv.imread('./image/pic2.png')
  4. right = cv.imread('right03.jpg')
  5. #均值滤波
  6. print('均值滤波')
  7. print('starry_night',end=': ')
  8. %time star_blur = cv.blur(star,(5,5))
  9. print('orange',end=': ')
  10. %time orange_blur = cv.blur(orange,(5,5))
  11. print('pic2',end=': ')
  12. %time pic2_blur = cv.blur(pic2,(5,5))
  13. print('right03',end=': ')
  14. %time right_blur = cv.blur(right,(5,5))
  15. print("")
  16. #高斯滤波
  17. print('高斯滤波')
  18. print('starry_night',end=': ')
  19. %time star_gau=cv.GaussianBlur(star,(5,5),0)
  20. print('orange',end=': ')
  21. %time orange_gau=cv.GaussianBlur(orange,(5,5),0)
  22. print('pic2',end=': ')
  23. %time pic2_gau = cv.GaussianBlur(pic2,(5,5),0)
  24. print('right03',end=': ')
  25. %time right_gau = cv.GaussianBlur(right,(5,5),0)
  26. print("")
  27. #中值滤波
  28. print('中值滤波')
  29. print('starry_night',end=': ')
  30. %time star_median = cv.medianBlur(star,5)
  31. print('orange',end=': ')
  32. %time orange_median = cv.medianBlur(orange,5)
  33. print('pic2',end=': ')
  34. %time pic2_median = cv.medianBlur(pic2,5)
  35. print('right03',end=': ')
  36. %time right_median = cv.medianBlur(right,5)
  37. print("")
  38. #双边滤波
  39. print('双边滤波')
  40. print('starry_night',end=': ')
  41. %time star_bi = cv.bilateralFilter(star,40,75,75)
  42. print('orange',end=': ')
  43. %time orange_bi = cv.bilateralFilter(orange,40,75,75)
  44. print('pic2',end=': ')
  45. %time pic2_bi = cv.bilateralFilter(pic2,40,75,75)
  46. print('right03',end=': ')
  47. %time right_bi = cv.bilateralFilter(right,40,75,75)
  48. 均值滤波
  49. starry_night: Wall time: 1.99 ms
  50. orange: Wall time: 997 µs
  51. pic2: Wall time: 0 ns
  52. right03: Wall time: 997 µs
  53. 高斯滤波
  54. starry_night: Wall time: 998 µs
  55. orange: Wall time: 997 µs
  56. pic2: Wall time: 997 µs
  57. right03: Wall time: 0 ns
  58. 中值滤波
  59. starry_night: Wall time: 3.99 ms
  60. orange: Wall time: 2.99 ms
  61. pic2: Wall time: 2 ms
  62. right03: Wall time: 2.99 ms
  63. 双边滤波
  64. starry_night: Wall time: 438 ms
  65. orange: Wall time: 259 ms
  66. pic2: Wall time: 113 ms
  67. right03: Wall time: 293 ms
  68. fig = plt.figure(dpi=150)
  69. plt.subplot(2,2,1)
  70. plt.title('blur')
  71. plt.imshow(star_blur[:,:,::-1])
  72. plt.subplot(2,2,2)
  73. plt.title('gaussian')
  74. plt.imshow(star_gau[:,:,::-1])
  75. plt.subplot(2,2,3)
  76. plt.title('medianBlur')
  77. plt.imshow(star_median[:,:,::-1])
  78. plt.subplot(2,2,4)
  79. plt.title('bilateral')
  80. plt.imshow(star_bi[:,:,::-1])
  81. plt.tight_layout()
  82. plt.show()

84b60c273d4363c6673e8e8e5cce795d.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('blur')
  4. plt.imshow(orange_blur[:,:,::-1])
  5. plt.subplot(2,2,2)
  6. plt.title('gaussian')
  7. plt.imshow(orange_gau[:,:,::-1])
  8. plt.subplot(2,2,3)
  9. plt.title('medianBlur')
  10. plt.imshow(orange_median[:,:,::-1])
  11. plt.subplot(2,2,4)
  12. plt.title('bilateral')
  13. plt.imshow(orange_bi[:,:,::-1])
  14. plt.tight_layout()
  15. plt.show()

8fb4af3af519197689c816804249a623.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('blur')
  4. plt.imshow(pic2_blur[:,:,::-1])
  5. plt.subplot(2,2,2)
  6. plt.title('gaussian')
  7. plt.imshow(pic2_gau[:,:,::-1])
  8. plt.subplot(2,2,3)
  9. plt.title('medianBlur')
  10. plt.imshow(pic2_median[:,:,::-1])
  11. plt.subplot(2,2,4)
  12. plt.title('bilateral')
  13. plt.imshow(pic2_bi[:,:,::-1])
  14. plt.tight_layout()
  15. plt.show()

78bf1c98cf1e0caff1b1d2b4a7608e82.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('blur')
  4. plt.imshow(right_blur[:,:,::-1])
  5. plt.subplot(2,2,2)
  6. plt.title('gaussian')
  7. plt.imshow(right_gau[:,:,::-1])
  8. plt.subplot(2,2,3)
  9. plt.title('medianBlur')
  10. plt.imshow(right_median[:,:,::-1])
  11. plt.subplot(2,2,4)
  12. plt.title('bilateral')
  13. plt.imshow(right_bi[:,:,::-1])
  14. plt.tight_layout()
  15. plt.show()

2a4edb705478d56048dfa9033d116dfa.png
  1. #只能处理灰度图,重新读取灰度图
  2. star_gray = cv.imread('.imagestarry_night.jpg', cv.IMREAD_GRAYSCALE)
  3. orange_gray = cv.imread('.imageorange.jpg', cv.IMREAD_GRAYSCALE)
  4. pic2_gray = cv.imread('.imagepic2.png',cv.IMREAD_GRAYSCALE)
  5. right_gray = cv.imread('right03.jpg',cv.IMREAD_GRAYSCALE)
  6. #Laplace边缘检测
  7. def Lap(img):
  8. img_lap = cv.Laplacian(img,cv.CV_64F)
  9. img_lap = cv.convertScaleAbs(img_lap)
  10. return img_lap
  11. print('Laplace边缘检测')
  12. print('starry_night',end=': ')
  13. %time star_lap = Lap(star_gray)
  14. print('orange',end=': ')
  15. %time orange_lap = Lap(orange_gray)
  16. print('pic2',end=': ')
  17. %time pic2_lap = Lap(pic2_gray)
  18. print('right03',end=': ')
  19. %time right_lap = Lap(right_gray)
  20. Laplace边缘检测
  21. starry_night: Wall time: 3.98 ms
  22. orange: Wall time: 1.99 ms
  23. pic2: Wall time: 0 ns
  24. right03: Wall time: 999 µs
  25. #Sobel边缘检测
  26. def SobelX(img):
  27. sobelx = cv.Sobel(img,cv.CV_64F,1,0)
  28. sobelx = cv.convertScaleAbs(sobelx)
  29. return sobelx
  30. def SobelY(img):
  31. sobely = cv.Sobel(img,cv.CV_64F,0,1)
  32. sobely = cv.convertScaleAbs(sobely)
  33. return sobely
  34. def SobelXY(img):
  35. sobelx = cv.Sobel(img,cv.CV_64F,1,0)
  36. sobely = cv.Sobel(img,cv.CV_64F,0,1)
  37. sobelCombined = cv2.bitwise_or(sobelX,sobelY)
  38. return sobelCombined
  39. print('Sobel边缘检测X方向')
  40. print('starry_night',end=': ')
  41. %time star_X = SobelX(star_gray)
  42. print('orange',end=': ')
  43. %time orange_X = SobelX(orange_gray)
  44. print('pic2',end=': ')
  45. %time pic2_X = SobelX(pic2_gray)
  46. print('right03',end=': ')
  47. %time right_X = SobelX(right_gray)
  48. print("")
  49. print('Sobel边缘检测Y方向')
  50. print('starry_night',end=': ')
  51. %time star_Y = SobelY(star_gray)
  52. print('orange',end=': ')
  53. %time orange_Y = SobelY(orange_gray)
  54. print('pic2',end=': ')
  55. %time pic2_Y = SobelY(pic2_gray)
  56. print('right03',end=': ')
  57. %time right_Y = SobelY(right_gray)
  58. print("")
  59. print('Sobel边缘检测XY方向')
  60. print('starry_night',end=': ')
  61. %time star_XY = SobelY(star_gray)
  62. print('orange',end=': ')
  63. %time orange_XY = SobelY(orange_gray)
  64. print('pic2',end=': ')
  65. %time pic2_XY = SobelY(pic2_gray)
  66. print('right03',end=': ')
  67. %time right_XY = SobelY(right_gray)
  68. print("")
  69. print(star_XY.shape)
  70. Sobel边缘检测X方向
  71. starry_night: Wall time: 2.99 ms
  72. orange: Wall time: 2 ms
  73. pic2: Wall time: 0 ns
  74. right03: Wall time: 998 µs
  75. Sobel边缘检测Y方向
  76. starry_night: Wall time: 2.96 ms
  77. orange: Wall time: 2.03 ms
  78. pic2: Wall time: 993 µs
  79. right03: Wall time: 1.99 ms
  80. Sobel边缘检测XY方向
  81. starry_night: Wall time: 2.99 ms
  82. orange: Wall time: 1.99 ms
  83. pic2: Wall time: 964 µs
  84. right03: Wall time: 2.03 ms
  85. (600, 752)
  86. #Canny
  87. #low:50 high:100
  88. print('Canny边缘检测,阈值1=50阈值2=100')
  89. print('starry_night',end=': ')
  90. %time star_canny1 = cv.Canny(star_gray,50,100)
  91. print('orange',end=': ')
  92. %time orange_canny1 = cv.Canny(orange_gray,50,100)
  93. print('pic2',end=': ')
  94. %time pic2_canny1 = cv.Canny(pic2_gray,50,100)
  95. print('right3',end=': ')
  96. %time right_canny1 = cv.Canny(right_gray,50,100)
  97. print("")
  98. #low:50 high:150
  99. print('Canny边缘检测,阈值1=50阈值2=150')
  100. print('starry_night',end=': ')
  101. %time star_canny2 = cv.Canny(star_gray,50,150)
  102. print('orange',end=': ')
  103. %time orange_canny2 = cv.Canny(orange_gray,50,150)
  104. print('pic2',end=': ')
  105. %time pic2_canny2 = cv.Canny(pic2_gray,50,150)
  106. print('right3',end=': ')
  107. %time right_canny2 = cv.Canny(right_gray,50,150)
  108. print("")
  109. #low:100 high:150
  110. print('Canny边缘检测,阈值1=100阈值2=150')
  111. print('starry_night',end=': ')
  112. %time star_canny3 = cv.Canny(star_gray,100,150)
  113. print('orange',end=': ')
  114. %time orange_canny3 = cv.Canny(orange_gray,100,150)
  115. print('pic2',end=': ')
  116. %time pic2_canny3 = cv.Canny(pic2_gray,100,150)
  117. print('right3',end=': ')
  118. %time right_canny3 = cv.Canny(right_gray,100,150)
  119. Canny边缘检测,阈值1=50阈值2=100
  120. starry_night: Wall time: 4.94 ms
  121. orange: Wall time: 998 µs
  122. pic2: Wall time: 998 µs
  123. right3: Wall time: 998 µs
  124. Canny边缘检测,阈值1=50阈值2=150
  125. starry_night: Wall time: 2.99 ms
  126. orange: Wall time: 995 µs
  127. pic2: Wall time: 1.99 ms
  128. right3: Wall time: 998 µs
  129. Canny边缘检测,阈值1=100阈值2=150
  130. starry_night: Wall time: 2.99 ms
  131. orange: Wall time: 0 ns
  132. pic2: Wall time: 997 µs
  133. right3: Wall time: 998 µs
  134. fig = plt.figure(dpi=150)
  135. plt.subplot(2,2,1)
  136. plt.title('Laplace')
  137. plt.imshow(star_lap, plt.cm.gray)
  138. plt.subplot(2,2,2)
  139. plt.title('Sobel_X')
  140. plt.imshow(star_X, plt.cm.gray)
  141. plt.subplot(2,2,3)
  142. plt.title('Sobel_Y')
  143. plt.imshow(star_Y, plt.cm.gray)
  144. plt.subplot(2,2,4)
  145. plt.title('Sobel_XY')
  146. plt.imshow(star_XY, plt.cm.gray)
  147. plt.tight_layout()
  148. plt.show()

d4ca41c3071d7bf7f33af7c51d28a964.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('Laplace')
  4. plt.imshow(orange_lap, plt.cm.gray)
  5. plt.subplot(2,2,2)
  6. plt.title('Sobel_X')
  7. plt.imshow(orange_X, plt.cm.gray)
  8. plt.subplot(2,2,3)
  9. plt.title('Sobel_Y')
  10. plt.imshow(orange_Y, plt.cm.gray)
  11. plt.subplot(2,2,4)
  12. plt.title('Sobel_XY')
  13. plt.imshow(orange_XY, plt.cm.gray)
  14. plt.tight_layout()
  15. plt.show()

171a75a8f1bc3e66143b326972994b50.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('Laplace')
  4. plt.imshow(pic2_lap, plt.cm.gray)
  5. plt.subplot(2,2,2)
  6. plt.title('Sobel_X')
  7. plt.imshow(pic2_X, plt.cm.gray)
  8. plt.subplot(2,2,3)
  9. plt.title('Sobel_Y')
  10. plt.imshow(pic2_Y, plt.cm.gray)
  11. plt.subplot(2,2,4)
  12. plt.title('Sobel_XY')
  13. plt.imshow(pic2_XY, plt.cm.gray)
  14. plt.tight_layout()
  15. plt.show()

d2ea9f995e47970eca244b947a29d64a.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('Laplace')
  4. plt.imshow(right_lap, plt.cm.gray)
  5. plt.subplot(2,2,2)
  6. plt.title('Sobel_X')
  7. plt.imshow(right_X, plt.cm.gray)
  8. plt.subplot(2,2,3)
  9. plt.title('Sobel_Y')
  10. plt.imshow(right_Y, plt.cm.gray)
  11. plt.subplot(2,2,4)
  12. plt.title('Sobel_XY')
  13. plt.imshow(right_XY, plt.cm.gray)
  14. plt.tight_layout()
  15. plt.show()

993f06632c7e23dc5291901c69784ca4.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('origan')
  4. plt.imshow(star_gray, plt.cm.gray)
  5. plt.subplot(2,2,2)
  6. plt.title('canny1')
  7. plt.imshow(star_canny1, plt.cm.gray)
  8. plt.subplot(2,2,3)
  9. plt.title('canny2')
  10. plt.imshow(star_canny2, plt.cm.gray)
  11. plt.subplot(2,2,4)
  12. plt.title('canny3')
  13. plt.imshow(star_canny3, plt.cm.gray)
  14. plt.tight_layout()
  15. plt.show()

12cf27fd9cc96d6310579ab4c74787d3.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('origan')
  4. plt.imshow(orange_gray, plt.cm.gray)
  5. plt.subplot(2,2,2)
  6. plt.title('canny1')
  7. plt.imshow(orange_canny1, plt.cm.gray)
  8. plt.subplot(2,2,3)
  9. plt.title('canny2')
  10. plt.imshow(orange_canny2, plt.cm.gray)
  11. plt.subplot(2,2,4)
  12. plt.title('canny3')
  13. plt.imshow(orange_canny3, plt.cm.gray)
  14. plt.tight_layout()
  15. plt.show()

ee32f2fd1f0286e33085f76a7a31cb4c.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('origan')
  4. plt.imshow(pic2_gray, plt.cm.gray)
  5. plt.subplot(2,2,2)
  6. plt.title('canny1')
  7. plt.imshow(pic2_canny1, plt.cm.gray)
  8. plt.subplot(2,2,3)
  9. plt.title('canny2')
  10. plt.imshow(pic2_canny2, plt.cm.gray)
  11. plt.subplot(2,2,4)
  12. plt.title('canny3')
  13. plt.imshow(pic2_canny3, plt.cm.gray)
  14. plt.tight_layout()
  15. plt.show()

482a01935c2a3a70e3c81d879a600b7c.png
  1. fig = plt.figure(dpi=150)
  2. plt.subplot(2,2,1)
  3. plt.title('origan')
  4. plt.imshow(right_gray, plt.cm.gray)
  5. plt.subplot(2,2,2)
  6. plt.title('canny1')
  7. plt.imshow(right_canny1, plt.cm.gray)
  8. plt.subplot(2,2,3)
  9. plt.title('canny2')
  10. plt.imshow(right_canny2, plt.cm.gray)
  11. plt.subplot(2,2,4)
  12. plt.title('canny3')
  13. plt.imshow(right_canny3, plt.cm.gray)
  14. plt.tight_layout()
  15. plt.show()

efbe5875a03c33d6953ab34b1b5527a6.png

实验四、直方图与图像分割

实验目的:使用 Python + OpenCV,完成原始米粒图像的灰度直方图变换与显示, 进一步对米粒图像进行分割,显示分割以后的结果,同时计算米粒的直径(最小包围矩形队形的长边)的方差与落在 2.5σ范围内的米粒数量,并对结果进行分析。
实验要求:
(1) 在开发环境下,显示米粒图像的灰度直方图;
(2) 使用大津或其它方法进行阈值分割,得到分割后的二值化结果;
(3) 对结果应用 findContours 函数,得到所有米粒对应的轮廓;
(4) 画出每一米粒对应的最小包围矩形,进一步计算方差并进行统计;
(5) 对分割及统计结果进行分析。

关键算法:

  1. cv.threshold() 阈值分割,二值化
  2. cv.findContours() 轮廓提取,返回值为轮廓本身和其对应属性
  3. cv.morphologyEx() 进行开运算等图形学操作
  4. cv.rectangle() 绘制矩形
  5. cv.putText() 添加文本

结果分析:

  1. 成功显示米粒图像的灰度直方图
  2. 使用大津法进行阈值分割,得到的阈值是129
  3. 成功得到米粒轮廓,结果有些不准确,因为过近可能将两粒米识别成一个。若继续处理可考虑从面积异常或者纵横比入手。
  4. 成功画出每一米粒对应的最小包围矩形,进一步计算方差为35.67
  5. 落在 2.5σ范围内的米粒数量为30个

运行结果:

  1. rice_gray = cv.imread('rice.jpg', cv.IMREAD_GRAYSCALE)
  2. rice = cv.imread('rice.jpg')
  3. # 显示灰度直方图
  4. plt.hist(rice_gray.ravel(), 256, [0, 256])
  5. plt.title('Histogram of Rice')
  6. plt.show()

0ac1ae97ab206985dc9de3a499a1e233.png
  1. #大津算法分割
  2. thr1, bw1 = cv.threshold(rice_gray, 0, 0xff, cv.THRESH_OTSU)
  3. print('Threshold is :', thr1)
  4. element = cv.getStructuringElement(cv.MORPH_CROSS, (3, 3)) # 构造一个特定大小和形状的结构元素,用于图像形态学处理
  5. bw1 = cv.morphologyEx(bw1, cv.MORPH_OPEN, element) #开运算
  6. seg = copy.deepcopy(bw1) #深度拷贝
  7. Threshold is : 129.0
  8. #计算轮廓
  9. cnts1, hier1 = cv.findContours(seg, cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE)
  10. count = 0
  11. # 遍历所有区域,并去除面积过小的
  12. for i in range(len(cnts1), 0, -1):
  13. c = cnts1[i-1]
  14. area = cv.contourArea(c)
  15. if area < 10:
  16. continue
  17. count = count + 1
  18. # 区域画框并标记
  19. x, y, w, h = cv.boundingRect(c)
  20. cv.rectangle(rice, (x, y), (x+w, y+h), (0, 0, 0xff), 1)
  21. cv.putText(rice, str(count), (x, y), cv.FONT_HERSHEY_PLAIN, 0.5, (0, 0xff, 0))
  22. fig = plt.figure(dpi=150)
  23. plt.subplot(1,2,1)
  24. plt.title('rice')
  25. plt.imshow(bw1, plt.cm.gray)
  26. plt.subplot(1,2,2)
  27. plt.title('rice_contour')
  28. plt.imshow(rice)
  29. plt.tight_layout()
  30. plt.show()

0b337b9aa06d17de4795485ca4de1d43.png
  1. # 尝试使用canny的图片寻找轮廓
  2. rice_gray = cv.imread('rice.jpg', cv.IMREAD_GRAYSCALE)
  3. rice = cv.imread('rice.jpg')
  4. rice_canny = cv.Canny(rice_gray,100,150)
  5. #计算轮廓
  6. cnts2, hier2 = cv.findContours(rice_canny, cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE)
  7. count = 0
  8. # 遍历所有区域,并去除面积过小的
  9. for i in range(len(cnts2), 0, -1):
  10. c = cnts2[i-1]
  11. area = cv.contourArea(c)
  12. if area < 5:
  13. continue
  14. count = count + 1
  15. #print("blob", i, " : ", area)
  16. # 区域画框并标记
  17. x, y, w, h = cv.boundingRect(c)
  18. cv.rectangle(rice, (x, y), (x+w, y+h), (0, 0, 0xff), 1)
  19. cv.putText(rice, str(count), (x, y), cv.FONT_HERSHEY_PLAIN, 0.5, (0, 0xff, 0))
  20. fig = plt.figure(dpi=150)
  21. plt.subplot(1,2,1)
  22. plt.title('rice_canny')
  23. plt.imshow(rice_canny, plt.cm.gray)
  24. plt.subplot(1,2,2)
  25. plt.title('rice_contour')
  26. plt.imshow(rice)
  27. plt.tight_layout()
  28. plt.show()

38b650f064332e4008a02765f002ce35.png
  1. #先对图像进行锐化操作,再二值化,最后提取边缘
  2. def custom_blur_demo(image):
  3. kernel = np.array([[0, -1, 0], [-1, 5, -1], [0, -1, 0]], np.float32) #锐化
  4. dst = cv.filter2D(image, -1, kernel=kernel)
  5. return dst
  6. rice_gray = cv.imread('rice.jpg', cv.IMREAD_GRAYSCALE)
  7. rice = cv.imread('rice.jpg')
  8. rice_gray = custom_blur_demo(rice_gray) #锐化
  9. thr2, bw2 = cv.threshold(rice_gray, 0, 255, cv.THRESH_OTSU)
  10. element = cv.getStructuringElement(cv.MORPH_CROSS, (3, 3)) # 构造一个特定大小和形状的结构元素,用于图像形态学处理
  11. bw2 = cv.morphologyEx(bw2, cv.MORPH_OPEN, element) #开运算
  12. #计算轮廓
  13. cnts3, hier3 = cv.findContours(bw2, cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE)
  14. count = 0
  15. # 遍历所有区域,并去除面积过小的
  16. for i in range(len(cnts3), 0, -1):
  17. c = cnts3[i-1]
  18. area = cv.contourArea(c)
  19. if area < 10:
  20. continue
  21. count = count + 1
  22. #print("blob", i, " : ", area)
  23. # 区域画框并标记
  24. x, y, w, h = cv.boundingRect(c)
  25. cv.rectangle(rice, (x, y), (x+w, y+h), (0, 0, 0xff), 1)
  26. cv.putText(rice, str(count), (x, y), cv.FONT_HERSHEY_PLAIN, 0.5, (0, 0xff, 0))
  27. fig = plt.figure(dpi=150)
  28. plt.subplot(1,2,1)
  29. plt.title('rice')
  30. plt.imshow(bw2,plt.cm.gray)
  31. plt.subplot(1,2,2)
  32. plt.title('rice_contour')
  33. plt.imshow(rice)
  34. plt.tight_layout()
  35. plt.show()

2c31bcfac9cb1484493f1f5fa7096d4d.png
  1. #统计方差时,采用老师给例程的分割方法
  2. D=[] #直径
  3. for i in range(len(cnts1), 0, -1):
  4. c = cnts1[i-1]
  5. area = cv.contourArea(c)
  6. if area < 10:
  7. continue
  8. x, y, w, h = cv.boundingRect(c)
  9. D.append(max(w,h))
  10. D_var = np.var(D) #求方差
  11. print('方差为:'+str(D_var))
  12. D_mean = np.mean(D) #求平均
  13. sigma = np.sqrt(D_var)
  14. count = 0
  15. for i in range(0,len(D)):
  16. if i < D_mean+2.5*sigma and i > D_mean - 2.5*sigma:
  17. count=count+1
  18. print('落在 2.5σ范围内的米粒数量有'+str(count)+'个')
  19. 方差为:35.66932593363395
  20. 落在 2.5σ范围内的米粒数量有30

实验五(综合实验)、目标检测与跟踪

实验简述:跟踪是视觉感知的核心任务之一,在安防、监控等领域具有广泛应 。应用 Python 及 OpenCV 提供的相关功能,实现一个可以对输入视频中运动 目标进行检测、跟踪的系统。
实验需求:
(1) 系统输入:给定视频(含有相关目标); 系统输出:检测的目标框及目标运动轨迹;
(2) 首先在“viplane”视频上进行实验;进一步在“Cap02t3”、“999”和 “video1”视频上进行实验。
提示:
(1) 运动目标检测可利用 OpenCV 提供的背景提取算法;
(2) 运动目标跟踪可利用 OpenCV 提供的多目标跟踪方法,如 KCF 等;
(3) (可选)为得到更好效果,可尝试利用深度学习进行目标检测;
(4) (可选)为得到更好的多目标跟踪效果,可尝试利用 SORT、DEEPSORT 等方法。

关键算法:

  1. cv.VideoCapture()打开视频
  2. cv.createBackgroundSubtractorMOG2(),初始化高斯背景建模法用于背景分离
  3. Yolov4的Tensorflow实现

结果分析:

  1. 成功使用opencv自带的高斯背景建模法完成运动物体的识别与检测
  2. 成功使用Yolov4的Tensorflow实现完成运动物体的跟踪与检测

运行结果:

  1. videoFileName = './image/viplane.avi'
  2. cap = cv.VideoCapture(videoFileName)
  3. fgbg = cv.createBackgroundSubtractorMOG2()
  4. thresh = 200
  5. flag = 0
  6. while True:
  7. ret, frame =cap.read()
  8. if not ret: # 没读到当前帧,结束
  9. break
  10. fgmask = fgbg.apply(frame)
  11. _, fgmask = cv.threshold(fgmask, 30, 0xff, cv.THRESH_BINARY)
  12. bgImage = fgbg.getBackgroundImage()
  13. # 以下是OpenCV 4.x用法,
  14. # 3.x需要使用 _, cnts, _
  15. cnts, _ = cv.findContours(fgmask.copy(), cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE)
  16. count = 0
  17. for c in cnts:
  18. area = cv.contourArea(c)
  19. if (area < thresh): # 区域面积小于指定阈值
  20. continue
  21. count += 1
  22. x, y, w, h = cv.boundingRect(c)
  23. cv.rectangle(frame, (x,y), (x+w, y+h), (0, 0xff, 0), 2)
  24. if flag == 2:
  25. print('共检测到', count, '个目标', 'n')
  26. fig = plt.figure(dpi=150)
  27. plt.subplot(1,2,1)
  28. plt.title('frame')
  29. plt.imshow(frame)
  30. plt.subplot(1,2,2)
  31. plt.title('background')
  32. plt.imshow(bgImage)
  33. plt.tight_layout()
  34. plt.show()
  35. break
  36. flag = flag + 1
  37. cap.release()
  38. 共检测到 7 个目标

dae6595a00a6a25b46ec7eb0ace4f6d4.png
  1. videoFileName = './image/999.mp4'
  2. cap = cv.VideoCapture(videoFileName)
  3. fgbg = cv.createBackgroundSubtractorMOG2()
  4. thresh = 200
  5. flag = 0
  6. while True:
  7. ret, frame =cap.read()
  8. if not ret: # 没读到当前帧,结束
  9. break
  10. fgmask = fgbg.apply(frame)
  11. _, fgmask = cv.threshold(fgmask, 30, 0xff, cv.THRESH_BINARY)
  12. bgImage = fgbg.getBackgroundImage()
  13. # 以下是OpenCV 4.x用法,
  14. # 3.x需要使用 _, cnts, _
  15. cnts, _ = cv.findContours(fgmask.copy(), cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE)
  16. count = 0
  17. for c in cnts:
  18. area = cv.contourArea(c)
  19. if (area < thresh): # 区域面积小于指定阈值
  20. continue
  21. count += 1
  22. x, y, w, h = cv.boundingRect(c)
  23. cv.rectangle(frame, (x,y), (x+w, y+h), (0, 0xff, 0), 2)
  24. if flag == 2:
  25. print('共检测到', count, '个目标', 'n')
  26. fig = plt.figure(dpi=150)
  27. plt.subplot(1,2,1)
  28. plt.title('frame')
  29. plt.imshow(frame)
  30. plt.subplot(1,2,2)
  31. plt.title('background')
  32. plt.imshow(bgImage)
  33. plt.tight_layout()
  34. plt.show()
  35. break
  36. flag = flag + 1
  37. cap.release()
  38. 共检测到 20 个目标

26c0be62d0157b1894f19d361f13c26b.png
  1. videoFileName = './image/Cap02t3.mp4'
  2. cap = cv.VideoCapture(videoFileName)
  3. fgbg = cv.createBackgroundSubtractorMOG2()
  4. thresh = 200
  5. flag = 0
  6. while True:
  7. ret, frame =cap.read()
  8. if not ret: # 没读到当前帧,结束
  9. break
  10. fgmask = fgbg.apply(frame)
  11. _, fgmask = cv.threshold(fgmask, 30, 0xff, cv.THRESH_BINARY)
  12. bgImage = fgbg.getBackgroundImage()
  13. # 以下是OpenCV 4.x用法,
  14. # 3.x需要使用 _, cnts, _
  15. cnts, _ = cv.findContours(fgmask.copy(), cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE)
  16. count = 0
  17. for c in cnts:
  18. area = cv.contourArea(c)
  19. if (area < thresh): # 区域面积小于指定阈值
  20. continue
  21. count += 1
  22. x, y, w, h = cv.boundingRect(c)
  23. cv.rectangle(frame, (x,y), (x+w, y+h), (0, 0xff, 0), 2)
  24. if flag == 47:
  25. print('共检测到', count, '个目标', 'n')
  26. fig = plt.figure(dpi=150)
  27. plt.subplot(1,2,1)
  28. plt.title('frame')
  29. plt.imshow(frame)
  30. plt.subplot(1,2,2)
  31. plt.title('background')
  32. plt.imshow(bgImage)
  33. plt.tight_layout()
  34. plt.show()
  35. break
  36. flag = flag + 1
  37. cap.release()
  38. 共检测到 4 个目标

81e517cea32249367c44ba23519c58f8.png
  1. videoFileName = './image/video1.avi'
  2. cap = cv.VideoCapture(videoFileName)
  3. fgbg = cv.createBackgroundSubtractorMOG2()
  4. thresh = 200
  5. flag = 0
  6. while True:
  7. ret, frame =cap.read()
  8. if not ret: # 没读到当前帧,结束
  9. break
  10. fgmask = fgbg.apply(frame)
  11. _, fgmask = cv.threshold(fgmask, 30, 0xff, cv.THRESH_BINARY)
  12. bgImage = fgbg.getBackgroundImage()
  13. # 以下是OpenCV 4.x用法,
  14. # 3.x需要使用 _, cnts, _
  15. cnts, _ = cv.findContours(fgmask.copy(), cv.RETR_EXTERNAL, cv.CHAIN_APPROX_SIMPLE)
  16. count = 0
  17. for c in cnts:
  18. area = cv.contourArea(c)
  19. if (area < thresh): # 区域面积小于指定阈值
  20. continue
  21. count += 1
  22. x, y, w, h = cv.boundingRect(c)
  23. cv.rectangle(frame, (x,y), (x+w, y+h), (0, 0xff, 0), 2)
  24. if flag == 35:
  25. print('共检测到', count, '个目标', 'n')
  26. fig = plt.figure(dpi=150)
  27. plt.subplot(1,2,1)
  28. plt.title('frame')
  29. plt.imshow(frame)
  30. plt.subplot(1,2,2)
  31. plt.title('background')
  32. plt.imshow(bgImage)
  33. plt.tight_layout()
  34. plt.show()
  35. break
  36. flag = flag + 1
  37. cap.release()
  38. 共检测到 2 个目标

ffe2170478d2b33ce1e7517390cefa89.png

使用最新的Yolov4对视频进行分析
因为jupyter中不能显示视频,截取部分视频中的部分图片进行效果展示

  1. cap = cv.imread('./image/Cap02t3.jpg')
  2. nine = cv.imread('./image/999.jpg')
  3. viplane = cv.imread('./image/viplane.jpg')
  4. video = cv.imread('./image/video.jpg')
  5. fig = plt.figure(dpi=150)
  6. plt.subplot(2,2,1)
  7. plt.title('Cap02t3')
  8. plt.imshow(cap[:,:,::-1])
  9. plt.subplot(2,2,2)
  10. plt.title('999')
  11. plt.imshow(nine[:,:,::-1])
  12. plt.subplot(2,2,3)
  13. plt.title('viplane')
  14. plt.imshow(viplane[:,:,::-1])
  15. plt.subplot(2,2,4)
  16. plt.title('video')
  17. plt.imshow(video[:,:,::-1])
  18. plt.tight_layout()
  19. plt.show()

9cb1fe65b7c2cea963280165353cc3c4.png
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/358704
推荐阅读
相关标签
  

闽ICP备14008679号