当前位置:   article > 正文

0926物体检测和数据集_物品数据集

物品数据集

物体检测和数据集

目标检测和图片分类的区别

图片分类:

  • 在图像分类任务中,假设图像中只有一个主要物体对象,目标是识别出这个主要物体对象的类别(其他东西相对来说就不那么重要了)

目标检测:

  • 在目标检测任务中,一张图像里往往不只一个感兴趣的物体对象,目标不仅仅是识别图像中所有感兴趣的物体(找出所有感兴趣的物体),还要找出它们在图像中所在的具体位置(通过方框来表示)

目标检测相对于图片分类来讲所做的工作更多,它需要找出所有感兴趣的物体,当图片中只有一个物体时,可以将目标检测看成是图像分类,把图像中最主要的物体当作是图片的类别,但是当图片中有多个物体的时候,目标检测不仅能将所有的物体都检测出来,还能将他们所在的位置标注出来,所以目标检测的应用场景相对来讲更多

目标检测的应用

  • 无人驾驶:通过识别拍摄到的视频图像中的车辆、行人、道路和障碍物的位置来规划行进路线
  • 无人售后:通过目标检测识别客户选购的物品
  • 机器人通常通过目标检测来检测感兴趣的目标
  • 安防领域使用目标检测来检测异常目标,比如歹徒或者炸弹

边缘框(boundingbox)

  • 在目标检测中,通常使用边界框来描述对象的空间位置
  • 边界框是矩形

边缘框可以用四个数字来定义(两种常用的表示方法)

  • (左上x,左上y,右下x,右下y)
  • (中心x,中心y,宽,高)

正方向

  • 对于 x 轴来说,向右为 x 轴的正方向,即 x 的值从左到右依次增大
  • 对于 y 轴来说,向下为 y 轴的正方向,y 的值从上到下依次增大

目标检测数据集

  • 目标检测领域没有像MNISTFashion-MNIST那样的小数据集
  • 目标检测的数据集通常来说比图片分类的数据集小很多,因为标注的成本很高
  • 对于图片分类来说,最简单的就是给定一个CSV文件(图片与标号一一对应)或者是给定一个文件夹(每个类对应一个子文件夹,对应标号的图片放在子文件夹下)
  • 对于目标检测来说就不能简单的用文件夹的形式,因为一张图片中可能存在多个类,所以就不能放在子文件夹中,所以通常来说目标检测的数据集的标号需要额外存储
  • 假设使用文本文件存储的话,每一行表示一个物体,每一行分别由图片文件名(因为一张图片中可能有多个物体,所以同一个文件名可能会出现多次)、物体类别(标号)、边缘框(图片中物体的位置)组成,每一行一共有6(1+1+4)个值

COCO数据集

  • 目标检测中比较常见的数据集,类似于Imagenet在图片分类中的地位
  • 访问地址:https://cocodataset.org/#home
  • COCO数据集中有 80 个类别330k 图片1.5M 物体(每张图片中有多个物体)

数据集的读取

读取小批量的时候,图像的小批量的形状为(批量大小、通道数、高度、宽度),与图像分类任务中的相同

标签的小批量的形状为(批量大小,m,5)

  • m:数据集的任何图像中边界框可能出现的最大数量
  • 5:每个边界框的标签将被长度为 5 的数组表示:数组的第一个元素是边界框中对象的类别,其中 -1 表示用于填充的非法边界框;数组的其余 4 个元素是边界框左上角和右下角(x,y)坐标值

小批量计算虽然高效,但是要求每张图像含有相同数量的边界框,以便放在同一个批量中

  • 通常图像可能拥有不同数量个边界框,所以,在达到 m 之前,边界框少于 m 的图像将被非法边界框填充

总结

  • 物体检测不仅能够识别图片所有感兴趣的物体的类别,还能够识别他们的位置,该位置通常由矩形边框表示
  • 位置通常用边缘框表示(通常有四个数字
  • 用于目标检测的数据加载与图像分类的数据加载类似,但是,在目标检测中,标签还包含真实边界框的信息,它不出现在图像分类中

代码:

  1. %matplotlib inline
  2. import torch
  3. from d2l import torch as d2l
  4. d2l.set_figsize()
  5. img = d2l.plt.imread('01_Data/1664187097901.jpg')
  6. d2l.plt.imshow(img)
  7. # 定义在这两种表示之间进行转换的函数
  8. def box_corner_to_center(boxes):
  9. """从(左上,右下)转换到(中间,宽度,高度)"""
  10. x1, y1, x2, y2 = boxes[:,0], boxes[:,1], boxes[:,2], boxes[:,3]
  11. cx = (x1 + x2) / 2
  12. cy = (y1 + y2) / 2
  13. w = x2 - x1
  14. h = y2 - y1
  15. boxes = torch.stack((cx,cy,w,h),axis = -1)
  16. return boxes
  17. def box_center_to_corner(boxes):
  18. """从(中间,宽度,高度)转换到(左上,右下)"""
  19. cx, cy, w, h = boxes[:,0], boxes[:,1], boxes[:,2], boxes[:,3]
  20. x1 = cx - 0.5 * w
  21. y1 = cy - 0.5 * h
  22. x2 = cx + 0.5 * w
  23. y2 = cy + 0.5 * h
  24. boxes = torch.stack((x1,y1,x2,y2),axis = -1)
  25. return boxes
  26. dog_bbox, cat_bbox = [60.0, 45.0, 378.0, 516.0], [400.0, 112.0, 655.0, 493.0]
  27. boxes = torch.tensor((dog_bbox,cat_bbox))
  28. # boxes 转中间表示,再转回来,等于自己
  29. box_center_to_corner(box_corner_to_center(boxes)) == boxes
  30. # 将边界框在图中画出
  31. def bbox_to_rect(bbox,color):
  32. return d2l.plt.Rectangle(xy=(bbox[0],bbox[1]),width=bbox[2]-bbox[0],
  33. height=bbox[3] - bbox[1], fill=False,
  34. edgecolor=color,linewidth=2)
  35. fig = d2l.plt.imshow(img)
  36. fig.axes.add_patch(bbox_to_rect(dog_bbox,'blue'))
  37. fig.axes.add_patch(bbox_to_rect(cat_bbox,'red'))

 

目标检测数据集代码:

  1. %matplotlib inline
  2. import os
  3. import pandas as pd
  4. import torch
  5. import torchvision
  6. from d2l import torch as d2l
  7. d2l.DATA_HUB['banana-detection'] = (d2l.DATA_URL + 'banana-detection.zip','5de25c8fce5ccdea9f91267273465dc968d20d72')
  8. # 读取香蕉检测数据集
  9. def read_data_bananas(is_train=True):
  10. """读取香蕉检测数据集中的图像和标签"""
  11. data_dir = d2l.download_extract('banana-detection')
  12. csv_fname = os.path.join(data_dir,
  13. 'bananas_train' if is_train else 'bananas_val',
  14. 'label.csv')
  15. csv_data = pd.read_csv(csv_fname)
  16. csv_data = csv_data.set_index('img_name')
  17. images, targets = [], []
  18. # 把图片、标号全部读到内存里面
  19. for img_name, target in csv_data.iterrows():
  20. images.append(torchvision.io.read_image(os.path.join(data_dir,'bananas_train' if is_train else 'bananas_val',
  21. 'images',f'{img_name}')))
  22. targets.append(list(target))
  23. print("len(targets):",len(targets))
  24. print("len(targets[0]):",len(targets[0]))
  25. print("targets[0][0]....targets[0][4]:",targets[0][0], targets[0][1], targets[0][2], targets[0][3], targets[0][4])
  26. print("type(targets):",type(targets))
  27. print("torch.tensor(targets).unsqueeze(1).shape:",torch.tensor(targets).unsqueeze(1).shape) # unsqueeze函数在指定位置加上维数为一的维度
  28. print("len(torch.tensor(targets).unsqueeze(1) / 256):", len(torch.tensor(targets).unsqueeze(1) / 256))
  29. print("type(torch.tensor(targets).unsqueeze(1) / 256):", type(torch.tensor(targets).unsqueeze(1) / 256))
  30. return images, torch.tensor(targets).unsqueeze(1) / 256 # 归一化使得收敛更快
  31. # 创建一个自定义Dataset实例
  32. class BananasDataset(torch.utils.data.Dataset):
  33. """一个用于加载香蕉检测数据集的自定义数据集"""
  34. def __init__(self, is_train):
  35. self.features, self.labels = read_data_bananas(is_train)
  36. print('read ' + str(len(self.features)) + (f' training examples' if is_train else f'validation examples'))
  37. def __getitem__(self, idx):
  38. return (self.features[idx].float(), self.labels[idx])
  39. def __len__(self):
  40. return len(self.features)
  41. # 为训练集和测试集返回两个数据加载器实例
  42. def load_data_bananas(batch_size):
  43. """加载香蕉检测数据集"""
  44. train_iter = torch.utils.data.DataLoader(BananasDataset(is_train=True),
  45. batch_size, shuffle=True)
  46. val_iter = torch.utils.data.DataLoader(BananasDataset(is_train=False),
  47. batch_size)
  48. return train_iter, val_iter
  49. # 读取一个小批量,并打印其中的图像和标签的形状
  50. batch_size, edge_size = 32, 256
  51. train_iter, _ = load_data_bananas(batch_size)
  52. batch = next(iter(train_iter))
  53. # ([32,1,5]) 中的1是每张图片中有几种类别,这里只有一种香蕉要识别的类别
  54. # 5是类别标号、框的四个参数
  55. batch[0].shape, batch[1].shape
  56. # 示例
  57. # pytorch里permute是改变参数维度的函数,
  58. # Dataset里读的img维度是[batch_size, RGB, h, w],
  59. # 但是plt画图的时候要求是[h, w, RGB],所以要调整一下
  60. # 做图片的时候,一般是会用一个ToTensor()将图片归一化到【0, 1】,这样收敛更快
  61. print("原始图片:\n", batch[0][0])
  62. print("原始图片:\n", (batch[0][0:10].permute(0,2,3,1)))
  63. print("归一化后图片:\n", (batch[0][0:10].permute(0,2,3,1)) / 255 )
  64. imgs = (batch[0][0:10].permute(0,2,3,1)) / 255
  65. #imgs = (batch[0][0:10].permute(0,2,3,1))
  66. # d2l.show_images输入的imgs图片参数是归一化后的图片
  67. axes = d2l.show_images(imgs, 2, 5, scale=2)
  68. for ax, label in zip(axes, batch[1][0:10]):
  69. d2l.show_bboxes(ax, [label[0][1:5] * edge_size], colors=['w'])

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/781759
推荐阅读
相关标签
  

闽ICP备14008679号