当前位置:   article > 正文

YOLOV5数据增强有这些!---也可自己新增数据增强方法(裁剪、平移 、旋转、改变亮度、加噪声)_yolov5 数据增强

yolov5 数据增强

目录

1   rectangular(同个batch里做rectangle宽高等比变换, 加快训练 ,对于多余的黑边做到最小,实现降低计算量。)

2 HSV变换

3. 随机旋转、平移、缩放、裁剪,错切/非垂直投影 、透视变换(从0开始)

3-1 旋转

3-2 平移src为左边图片, dst为右边旋转缩放变换后的图片, xy为横纵坐标, M为平移矩阵,x轴平移参数主要是M[0,2]起作用,y轴平移参数主要是M[1,2]起作用

3-3  错切/非垂直投影

3-4 翻转

3-5 四图拼接

3-6 图像互相融合(是简单地将两张图叠加到一起, 通过不同的透明度进行区分。)

3-7  分割填补(分割出图像的目标后, 需要计算该目标边框与填补图片中的所有目标边框IOU<0.3(实现参数))


1   rectangular

(同个batch里做rectangle宽高等比变换, 加快训练 ,对于多余的黑边做到最小,实现降低计算量。)

code:

  1. # 文件位置:utils/datasets.py
  2. # 6、为Rectangular Training作准备:即减少大小不同图片处理时,对于多余的黑边做到最小,实现降低计算量
  3. # 这里主要是注意shapes的生成 这一步很重要 因为如果采样矩形训练那么整个batch的形状要一样 就要计算这个符合整个batch的shape
  4. # 而且还要对数据集按照高宽比进行排序 这样才能保证同一个batch的图片的形状差不多相同 再选择一个共同的shape代价也比较小
  5. if self.rect:
  6. # 所有训练图片的shape
  7. s = self.shapes # wh
  8. # 计算高宽比
  9. ar = s[:, 1] / s[:, 0] # aspect ratio
  10. irect = ar.argsort() # 根据高宽比排序
  11. self.img_files = [self.img_files[i] for i in irect] # 获取排序后的img_files
  12. self.label_files = [self.label_files[i] for i in irect] # 获取排序后的label_files
  13. self.labels = [self.labels[i] for i in irect] # 获取排序后的labels
  14. self.shapes = s[irect] # 获取排序后的wh
  15. ar = ar[irect] # 获取排序后的wh
  16. # 计算每个batch采用的统一尺度 Set training image shapes
  17. shapes = [[1, 1]] * nb
  18. for i in range(nb):
  19. # 同一个batch的图片提取出来
  20. ari = ar[bi == i]
  21. mini, maxi = ari.min(), ari.max() # 获取第i个batch中,最小和最大高宽比
  22. if maxi < 1:
  23. # [H,W]如果高/宽小于1(w > h),宽大于高,矮胖型,(img_size*maxi,img_size)(保证原图像尺度不变进行缩放)
  24. shapes[i] = [maxi, 1]
  25. elif mini > 1:
  26. # [H,W]如果高/宽大于1(w < h),宽小于高,瘦高型,(img_size,img_size *(1/mini))(保证原图像尺度不变进行缩放)
  27. shapes[i] = [1, 1 / mini]
  28. # 计算每个batch输入网络的shape值(向上设置为32的整数倍)
  29. # 要求每个batch_shapes的高宽都是32的整数倍,所以要先除以32,取整再乘以32(不过img_size如果是32倍数这里就没必要了)
  30. self.batch_shapes = np.ceil(np.array(shapes) * img_size / stride + pad).astype(np.int) * stride

2 HSV变换

  • HSV-Hue augmentation (fraction), 色调

  • HSV-Saturation augmentation (fraction), 饱和度

  • HSV-Value augmentation (fraction), 曝光度

  • code:

    1. # 调用函数的文件位置:文件位置:utils/datasets.py
    2. # 色域空间增强Augment colorspace:H色调、S饱和度、V亮度
    3. # 通过一些随机值改变hsv,实现数据增强
    4. augment_hsv(img, hgain=hyp['hsv_h'], sgain=hyp['hsv_s'], vgain=hyp['hsv_v'])
    5. # 被调用的函数位置:utils/augmentations.py
    6. def augment_hsv(im, hgain=0.5, sgain=0.5, vgain=0.5):
    7. # HSV color-space augmentation
    8. if hgain or sgain or vgain:
    9. r = np.random.uniform(-1, 1, 3) * [hgain, sgain, vgain] + 1 # random gains
    10. hue, sat, val = cv2.split(cv2.cvtColor(im, cv2.COLOR_BGR2HSV))
    11. dtype = im.dtype # uint8
    12. x = np.arange(0, 256, dtype=r.dtype)
    13. lut_hue = ((x * r[0]) % 180).astype(dtype)
    14. lut_sat = np.clip(x * r[1], 0, 255).astype(dtype)
    15. lut_val = np.clip(x * r[2], 0, 255).astype(dtype)
    16. im_hsv = cv2.merge((cv2.LUT(hue, lut_hue), cv2.LUT(sat, lut_sat), cv2.LUT(val, lut_val)))
    17. cv2.cvtColor(im_hsv, cv2.COLOR_HSV2BGR, dst=im) # no return needed

    3. 随机旋转、平移、缩放、裁剪,错切/非垂直投影 、透视变换(从0开始)

  • 3-1 旋转:

  • src为左边图片,dst为右边旋转缩放变换后的图片, xy为横纵坐标, M为旋转缩放矩阵

  • 旋转参数主要是M[0,1], M[1, 0]起作用, 且M[0,1], M[1, 0]互为相反数

  • 缩放参数主要是M[0,0], M[1,1]起作用

  •  3-2 平移(

  • src为左边图片, dst为右边旋转缩放变换后的图片, xy为横纵坐标, M为平移矩阵
  • x轴平移参数主要是M[0,2]起作用
  • y轴平移参数主要是M[1,2]起作用
  • 3-3  错切/非垂直投影

  • 错切的类似于固定图片一边, 对另外平行一边施加一个推力形成的变形

  • src为左边图片, dst为右边错切变换后的图片, xy为横纵坐标, M为错切矩阵

  • 错切参数主要是M[0,1], M[1, 0]起作用

  • 3-4 透视变换(

  • src为左边图片, dst为右边透视变换后的图片, xy为横纵坐标, M为变换矩阵

  • 变换参数主要是M[2,0], M[2,1]起作用

    1. # 调用函数地址:utils/datasets.py
    2. # Augment
    3. # random_perspective Augment 随机透视变换 [1280, 1280, 3] => [640, 640, 3]
    4. # 对mosaic整合后的图片进行随机旋转、平移、缩放、裁剪,透视变换,并resize为输入大小img_size
    5. img4, labels4 = random_perspective(img4, labels4, segments4,
    6. degrees=self.hyp['degrees'], # 旋转
    7. translate=self.hyp['translate'], # 平移
    8. scale=self.hyp['scale'], # 缩放
    9. shear=self.hyp['shear'], # 错切/非垂直投影
    10. perspective=self.hyp['perspective'], # 透视变换
    11. border=self.mosaic_border) # border to remove
    12. # 被调用的函数地址:utils/augmentations.py
    13. def random_perspective(im, targets=(), segments=(), degrees=10, translate=.1, scale=.1, shear=10, perspective=0.0,
    14. border=(0, 0)):
    15. # torchvision.transforms.RandomAffine(degrees=(-10, 10), translate=(0.1, 0.1), scale=(0.9, 1.1), shear=(-10, 10))
    16. # targets = [cls, xyxy]
    17. height = im.shape[0] + border[0] * 2 # shape(h,w,c)
    18. width = im.shape[1] + border[1] * 2
    19. # Center
    20. C = np.eye(3)
    21. C[0, 2] = -im.shape[1] / 2 # x translation (pixels)
    22. C[1, 2] = -im.shape[0] / 2 # y translation (pixels)
    23. # Perspective # 透视变换
    24. P = np.eye(3)
    25. P[2, 0] = random.uniform(-perspective, perspective) # x perspective (about y)
    26. P[2, 1] = random.uniform(-perspective, perspective) # y perspective (about x)
    27. # Rotation and Scale 旋转+缩放
    28. R = np.eye(3)
    29. a = random.uniform(-degrees, degrees)
    30. # a += random.choice([-180, -90, 0, 90]) # add 90deg rotations to small rotations
    31. s = random.uniform(1 - scale, 1 + scale)
    32. # s = 2 ** random.uniform(-scale, scale)
    33. R[:2] = cv2.getRotationMatrix2D(angle=a, center=(0, 0), scale=s)
    34. # Shear 错切/非垂直投影
    35. S = np.eye(3)
    36. S[0, 1] = math.tan(random.uniform(-shear, shear) * math.pi / 180) # x shear (deg)
    37. S[1, 0] = math.tan(random.uniform(-shear, shear) * math.pi / 180) # y shear (deg)
    38. # Translation 平移
    39. T = np.eye(3)
    40. T[0, 2] = random.uniform(0.5 - translate, 0.5 + translate) * width # x translation (pixels)
    41. T[1, 2] = random.uniform(0.5 - translate, 0.5 + translate) * height # y translation (pixels)
    42. # Combined rotation matrix
    43. # 将所有变换矩阵连乘得到最终的变换矩阵
    44. M = T @ S @ R @ P @ C # order of operations (right to left) is IMPORTANT
    45. if (border[0] != 0) or (border[1] != 0) or (M != np.eye(3)).any(): # image changed
    46. if perspective:
    47. im = cv2.warpPerspective(im, M, dsize=(width, height), borderValue=(114, 114, 114))
    48. else: # affine
    49. im = cv2.warpAffine(im, M[:2], dsize=(width, height), borderValue=(114, 114, 114))
    50. # Visualize
    51. # import matplotlib.pyplot as plt
    52. # ax = plt.subplots(1, 2, figsize=(12, 6))[1].ravel()
    53. # ax[0].imshow(im[:, :, ::-1]) # base
    54. # ax[1].imshow(im2[:, :, ::-1]) # warped
    55. # Transform label coordinates
    56. n = len(targets)
    57. if n:
    58. use_segments = any(x.any() for x in segments)
    59. new = np.zeros((n, 4))
    60. if use_segments: # warp segments
    61. segments = resample_segments(segments) # upsample
    62. # 其中 segment.shape = [n, 2], 表示物体轮廓各个坐标点
    63. for i, segment in enumerate(segments):
    64. xy = np.ones((len(segment), 3))
    65. xy[:, :2] = segment
    66. xy = xy @ M.T # transform 应用旋转矩阵
    67. xy = xy[:, :2] / xy[:, 2:3] if perspective else xy[:, :2] # perspective rescale or affine
    68. # clip
    69. new[i] = segment2box(xy, width, height)
    70. else: # warp boxes 如果是box坐标, 这里targets每行为[x1,y1,x2,y2],n为行数,表示目标边框个数:
    71. xy = np.ones((n * 4, 3))
    72. xy[:, :2] = targets[:, [1, 2, 3, 4, 1, 4, 3, 2]].reshape(n * 4, 2) # x1y1, x2y2, x1y2, x2y1
    73. xy = xy @ M.T # transform 应用旋转矩阵
    74. # 如果透视变换参数perspective不为0, 就需要做rescale,透视变换参数为0, 则无需做rescale。
    75. xy = (xy[:, :2] / xy[:, 2:3] if perspective else xy[:, :2]).reshape(n, 8) # perspective rescale or affine
    76. # create new boxes
    77. x = xy[:, [0, 2, 4, 6]]
    78. y = xy[:, [1, 3, 5, 7]]
    79. new = np.concatenate((x.min(1), y.min(1), x.max(1), y.max(1))).reshape(4, n).T
    80. # clip 将坐标clip到[0, width],[0,height]区间内
    81. new[:, [0, 2]] = new[:, [0, 2]].clip(0, width)
    82. new[:, [1, 3]] = new[:, [1, 3]].clip(0, height)
    83. # filter candidates 进一步过滤,留下那些w,h>2,宽高比<20,变换后面积比之前比>0.1的那些xy
    84. i = box_candidates(box1=targets[:, 1:5].T * s, box2=new.T, area_thr=0.01 if use_segments else 0.10)
    85. targets = targets[i]
    86. targets[:, 1:5] = new[i]
    87. return im, targets

    代码逻辑描述3-4 翻转

  • 3-5 四图拼接(

  • 初始化整个背景图, 大小为(2 × image_size, 2 × image_size, 3)

  • 随机取一个中心点

  • 基于中心点分别将4个图放到左上,右上,左下,右下,,此部分可能会由于中心点小于4张图片的宽高

  • 所以拼接的时候可能会进行裁剪重新将打标边框的偏移量计算上

  •  需要裁剪
  • code:
    1. # 代码位置:utils/datasets.py
    2. def load_mosaic(self, index):
    3. """用在LoadImagesAndLabels模块的__getitem__函数 进行mosaic数据增强
    4. 将四张图片拼接在一张马赛克图像中 loads images in a 4-mosaic
    5. :param index: 需要获取的图像索引
    6. :return: img4: mosaic和随机透视变换后的一张图片 numpy(640, 640, 3)
    7. labels4: img4对应的target [M, cls+x1y1x2y2]
    8. """
    9. # labels4: 用于存放拼接图像(4张图拼成一张)的label信息(不包含segments多边形)
    10. # segments4: 用于存放拼接图像(4张图拼成一张)的label信息(包含segments多边形)
    11. labels4, segments4 = [], []
    12. s = self.img_size # 一般的图片大小
    13. # 随机初始化拼接图像的中心点坐标 [0, s*2]之间随机取2个数作为拼接图像的中心坐标
    14. yc, xc = (int(random.uniform(-x, 2 * s + x)) for x in self.mosaic_border) # mosaic center x, y
    15. # 从dataset中随机寻找额外的三张图像进行拼接 [14, 26, 2, 16] 再随机选三张图片的index
    16. indices = [index] + random.choices(self.indices, k=3) # 3 additional image indices
    17. random.shuffle(indices)
    18. # 遍历四张图像进行拼接 4张不同大小的图像 => 1张[1472, 1472, 3]的图像
    19. for i, index in enumerate(indices):
    20. # load image 每次拿一张图片 并将这张图片resize到self.size(h,w)
    21. img, _, (h, w) = self.load_image(index)
    22. # place img in img4
    23. if i == 0: # top left 原图[375, 500, 3] load_image->[552, 736, 3] hwc
    24. # 创建马赛克图像 [1472, 1472, 3]=[h, w, c]
    25. img4 = np.full((s * 2, s * 2, img.shape[2]), 114, dtype=np.uint8) # base image with 4 tiles
    26. # 计算马赛克图像中的坐标信息(将图像填充到马赛克图像中) w=736 h = 552 马赛克图像:(x1a,y1a)左上角 (x2a,y2a)右下角
    27. x1a, y1a, x2a, y2a = max(xc - w, 0), max(yc - h, 0), xc, yc # xmin, ymin, xmax, ymax (large image)
    28. # 计算截取的图像区域信息(以xc,yc为第一张图像的右下角坐标填充到马赛克图像中,丢弃越界的区域) 图像:(x1b,y1b)左上角 (x2b,y2b)右下角
    29. x1b, y1b, x2b, y2b = w - (x2a - x1a), h - (y2a - y1a), w, h # xmin, ymin, xmax, ymax (small image)
    30. elif i == 1: # top right
    31. # 计算马赛克图像中的坐标信息(将图像填充到马赛克图像中)
    32. x1a, y1a, x2a, y2a = xc, max(yc - h, 0), min(xc + w, s * 2), yc
    33. # 计算截取的图像区域信息(以xc,yc为第二张图像的左下角坐标填充到马赛克图像中,丢弃越界的区域)
    34. x1b, y1b, x2b, y2b = 0, h - (y2a - y1a), min(w, x2a - x1a), h
    35. elif i == 2: # bottom left
    36. # 计算马赛克图像中的坐标信息(将图像填充到马赛克图像中)
    37. x1a, y1a, x2a, y2a = max(xc - w, 0), yc, xc, min(s * 2, yc + h)
    38. # 计算截取的图像区域信息(以xc,yc为第三张图像的右上角坐标填充到马赛克图像中,丢弃越界的区域)
    39. x1b, y1b, x2b, y2b = w - (x2a - x1a), 0, w, min(y2a - y1a, h)
    40. elif i == 3: # bottom right
    41. # 计算马赛克图像中的坐标信息(将图像填充到马赛克图像中)
    42. x1a, y1a, x2a, y2a = xc, yc, min(xc + w, s * 2), min(s * 2, yc + h)
    43. # 计算截取的图像区域信息(以xc,yc为第四张图像的左上角坐标填充到马赛克图像中,丢弃越界的区域)
    44. x1b, y1b, x2b, y2b = 0, 0, min(w, x2a - x1a), min(y2a - y1a, h)
    45. # 将截取的图像区域填充到马赛克图像的相应位置 img4[h, w, c]
    46. # 将图像img的【(x1b,y1b)左上角 (x2b,y2b)右下角】区域截取出来填充到马赛克图像的【(x1a,y1a)左上角 (x2a,y2a)右下角】区域
    47. img4[y1a:y2a, x1a:x2a] = img[y1b:y2b, x1b:x2b] # img4[ymin:ymax, xmin:xmax]
    48. # 计算pad(当前图像边界与马赛克边界的距离,越界的情况padw/padh为负值) 用于后面的label映射
    49. padw = x1a - x1b # 当前图像与马赛克图像在w维度上相差多少
    50. padh = y1a - y1b # 当前图像与马赛克图像在h维度上相差多少
    51. # labels: 获取对应拼接图像的所有正常label信息(如果有segments多边形会被转化为矩形label)
    52. # segments: 获取对应拼接图像的所有不正常label信息(包含segments多边形也包含正常gt)
    53. # 在新图中更新坐标值
    54. labels, segments = self.labels[index].copy(), self.segments[index].copy()
    55. if labels.size:
    56. labels[:, 1:] = xywhn2xyxy(labels[:, 1:], w, h, padw, padh) # normalized xywh to pixel xyxy format
    57. segments = [xyn2xy(x, w, h, padw, padh) for x in segments]
    58. labels4.append(labels) # 更新labels4
    59. segments4.extend(segments) # 更新segments4
    60. # Concat/clip labels4 把labels4([(2, 5), (1, 5), (3, 5), (1, 5)] => (7, 5))压缩到一起
    61. labels4 = np.concatenate(labels4, 0)
    62. # 防止越界 label[:, 1:]中的所有元素的值(位置信息)必须在[0, 2*s]之间,小于0就令其等于0,大于2*s就等于2*s out: 返回
    63. for x in (labels4[:, 1:], *segments4):
    64. np.clip(x, 0, 2 * s, out=x) # clip when using random_perspective()
    65. # img4, labels4 = replicate(img4, labels4) # replicate

    3-6 图像互相融合(是简单地将两张图叠加到一起, 通过不同的透明度进行区分。)

  • code:

    1. # 调用函数地址:utils/datasets.py
    2. if random.random() < hyp['mixup']: # hyp['mixup']=0 默认为0则关闭 默认为1则100%打开
    3. # *load_mosaic(self, random.randint(0, self.n - 1)) 随机从数据集中任选一张图片和本张图片进行mixup数据增强
    4. # img: 两张图片融合之后的图片 numpy (640, 640, 3)
    5. # labels: 两张图片融合之后的标签label [M+N, cls+x1y1x2y2]
    6. img, labels = mixup(img, labels, *self.load_mosaic(random.randint(0, self.n - 1)))
    7. # 被调用函数地址:utils/augmentations.py
    8. def mixup(im, labels, im2, labels2):
    9. # Applies MixUp augmentation https://arxiv.org/pdf/1710.09412.pdf
    10. r = np.random.beta(32.0, 32.0) # mixup ratio, alpha=beta=32.0
    11. im = (im * r + im2 * (1 - r)).astype(np.uint8)
    12. labels = np.concatenate((labels, labels2), 0)
    13. return im, labels

    3-7  分割填补(分割出图像的目标后, 需要计算该目标边框与填补图片中的所有目标边框IOU<0.3(实现参数))

  • code:

    1. # 调用函数地址:utils/datasets.py
    2. img4, labels4, segments4 = copy_paste(img4, labels4, segments4, p=self.hyp['copy_paste'])
    3. # 被调用函数地址:utils/augmentations.py
    4. def copy_paste(im, labels, segments, p=0.5):
    5. # Implement Copy-Paste augmentation https://arxiv.org/abs/2012.07177, labels as nx5 np.array(cls, xyxy)
    6. n = len(segments)
    7. if p and n:
    8. h, w, c = im.shape # height, width, channels
    9. im_new = np.zeros(im.shape, np.uint8)
    10. for j in random.sample(range(n), k=round(p * n)):
    11. l, s = labels[j], segments[j]
    12. box = w - l[3], l[2], w - l[1], l[4]
    13. ioa = bbox_ioa(box, labels[:, 1:5]) # intersection over area
    14. if (ioa < 0.30).all(): # allow 30% obscuration of existing labels
    15. labels = np.concatenate((labels, [[l[0], *box]]), 0)
    16. segments.append(np.concatenate((w - s[:, 0:1], s[:, 1:2]), 1))
    17. cv2.drawContours(im_new, [segments[j].astype(np.int32)], -1, (255, 255, 255), cv2.FILLED)
    18. result = cv2.bitwise_and(src1=im, src2=im_new)
    19. result = cv2.flip(result, 1) # augment segments (flip left-right)
    20. i = result > 0 # pixels to replace
    21. # i[:, :] = result.max(2).reshape(h, w, 1) # act over ch
    22. im[i] = result[i] # cv2.imwrite('debug.jpg', im) # debug
    23. return im, labels, segments
  • DIY数据增强(裁剪、平移 、旋转、改变亮度、加噪声)

  • 参考(如有侵权,请联系删除):

  • YOLO数据集实现数据增强的方法(裁剪、平移 、旋转、改变亮度、加噪声等)_yolov5数据增强_路人贾'ω'(考公中)的博客-CSDN博客YOLO数据集实现数据增强的方法(裁剪、平移 、旋转、改变亮度、加噪声等)_yolov5数据增强_路人贾'ω'的博客-CSDN博客

  • 增强后:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/373512
推荐阅读
相关标签
  

闽ICP备14008679号