当前位置:   article > 正文

yolo原理与实现(训练和测试)_yolo实现

yolo实现

前言

之前谈的基础深度学习的模型一直都是分类,即给定一张图片分辨出图像是什么东西。而更有趣的是在目标检测领域,给定一张图片,不仅要分辨出图示的物体是什么,还要标注出目标的边框。我之前的博文写过一个手写数字分割的,大概的思想是将纸上的区域转为二值化数据,然后统计二值像素绘制成直方图得出行列的边界或者是利用纯opencv的方法得的边界。但是这种方法不太适合一些复杂图片。如下面所示(图像来源斯坦福cs231n课程)。
在这里插入图片描述
yolo(you only look once) 是其中一种非常有效且高效的方法,网上的博客文档非常多,我就不再详细介绍整个实现模式(如网络结构)。基本的介绍可以参考这篇博文 目标检测|YOLO原理与实现,我觉得写得非常好。本文将针对yolo实现的技术细节(如怎么转化(x,y, w, h)置信度,NMS等) 并会给出示例代码(包能用,逃)

  • ① 介绍模型的应用,得到预测数据
  • ② 怎么将预测值转为我们想要的数据(边界左上角,右下角,预测分数)
  • ③ 怎么构建自己的训练集(以voc2007为例)及训练

注:本文介绍的是yolov1,看过吴恩达的deeplearning课程的可能会对archor box之类的概念(其实archor box是yolo v2提出),这里我们不涉及。我建议学习路线是跟着yolo的发展看论文(一定要看论文),从yolov1 到 yolov2(yolo 9000) 再到最新的yolov3。这样会比较清晰脉络且也更容易接受

一、模型导入

从一开始我不打算介绍复杂的概念,其实所有深度学习的模型都可以这样概括,给你一个模型,然后你根据网络架构得到一个predict的矩阵。你可以理解yolo也是这样。首先我们来导入yolo的模型,权重文件可以从这里下载,话不多说,直接上代码

import numpy as np
import cv2
import tensorflow as tf


class Yolov1(object):
    def __init__(self, weights_file):
        # yolo可以预测的物体(20类,如猫,狗,车等)
        self.classes_list = ["aeroplane", "bicycle", "bird", "boat", "bottle",
                        "bus", "car", "cat", "chair", "cow", "diningtable",
                        "dog", "horse", "motorbike", "person", "pottedplant",
                        "sheep", "sofa", "train", "tvmonitor"]
        # 预测图片的尺寸 448*448
        self.image_size = 448
        # 将图片分割成7*7的格子(注意不是真的分割)
        self.cell_size = 7
        # 一个格子的大小 448/7 = 64
        self.image_scale = self.image_size / self.cell_size
        # 每个格子预测2个box
        self.box_per_cell = 2
        self.classes = len(self.classes_list)
        # 一张图片最多的边框(这个参数是极大值抑制用的)及iou
        self.max_output_size = 10
        self.iou_threshold = 0.4
        # 预测分数的阈值,我这里设为0.1
        self.threshold = 0.1
        # 绘制坐标值 [7, 7 ,2]
        self.x_offset = np.transpose(np.reshape(
            np.array([np.arange(self.cell_size)] * self.cell_size * self.box_per_cell),
            [self.box_per_cell, self.cell_size, self.cell_size]),
            [1, 2, 0])
        self.y_offset = np.transpose(self.x_offset, [1, 0, 2])

        self.sess = tf.Session()
        # 网络结构
        self._build_net()
        # 解析预测值
        self._build_detector()
        # 解析权重
        self._load_weights(weights_file)

    def _build_net(self):
        print('Start to build the network ...')
        self.images = tf.placeholder(tf.float32, [None, self.image_size, self.image_size, 3])
        net = self._conv2d(self.images, 1, 64, 7, 2)
        net = self._maxpool(net, 1, 2, 2)

        net = self._conv2d(net, 2, 192, 3, 1)
        net = self._maxpool(net, 2, 2, 2)

        net = self._conv2d(net, 3, 128, 1, 1)

        net = self._conv2d(net, 4, 256, 3, 1)

        net = self._conv2d(net, 5, 256, 1, 1)

        net = self._conv2d(net, 6, 512, 3, 1)
        net = self._maxpool(net, 6, 2, 2)

        net = self._conv2d(net, 7, 256, 1, 1)

        net = self._conv2d(net, 8, 512, 3, 1)

        net = self._conv2d(net, 9, 256, 1, 1)

        net = self._conv2d(net, 10, 512, 3, 1)

        net = self._conv2d(net, 11, 256, 1, 1)

        net = self._conv2d(net, 12, 512, 3, 1)

        net = self._conv2d(net, 13, 256, 1, 1)

        net = self._conv2d(net, 14, 512, 3, 1)

        net = self._conv2d(net, 15, 512, 1, 1)

        net = self._conv2d(net, 16, 1024, 3, 1)
        net = self._maxpool(net, 16, 2, 2)

        net = self._conv2d(net, 17, 512, 1, 1)

        net = self._conv2d(net, 18, 1024, 3, 1)

        net = self._conv2d(net, 19, 512, 1, 1)

        net = self._conv2d(net, 20, 1024, 3, 1)

        net = self._conv2d(net, 21, 1024, 3, 1)

        net = self._conv2d(net, 22, 1024, 3, 2)

        net = self._conv2d(net, 23, 1024, 3, 1)

        net = self._conv2d(net, 24, 1024, 3, 1)
        net = self._flatten(net)

        net = self._fc(net, 25, 512, activation=tf.nn.leaky_relu)
        net = self._fc(net, 26, 4096, activation=tf.nn.leaky_relu)
        net = self._fc(net, 27, self.cell_size*self.cell_size*(self.classes + self.box_per_cell*5))
        self.predicts = net

    def _conv2d(self, x, id, num_filters, filter_size, stride):
        in_channels = x.get_shape().as_list()[-1]
        weight = tf.Variable(tf.truncated_normal([filter_size, filter_size, in_channels, num_filters], stddev=0.1))
        bias = tf.Variable(tf.zeros([num_filters, ]))
        # padding
        pad_size = filter_size // 2
        pad_mat = np.array([[0, 0], [pad_size, pad_size], [pad_size, pad_size], [0, 0]])
        x_pad = tf.pad(x, pad_mat)
        conv = tf.nn.conv2d(x_pad, weight, strides=[1, stride, stride, 1], padding='VALID')
        output = tf.nn.leaky_relu(tf.nn.bias_add(conv, bias), alpha=0.1)
        print("    Layer %d: type=Conv, num_filter=%d, filter_size=%d, stride=%d, output_shape=%s"
              % (id, num_filters, filter_size, stride, str(output.get_shape())))
        return output

    def _maxpool(self, x, id, pool_size, stride):
        output = tf.nn.max_pool(x, [1, pool_size, pool_size, 1],
                                strides=[1, stride, stride, 1], padding='SAME')
        print("    Layer %d: type=MaxPool, pool_size=%d, stride=%d, output_shape=%s"
              % (id, pool_size, stride, str(output.get_shape())))
        return output

    def _fc(self, x, id, num_out, activation=None):
        num_in = x.get_shape().as_list()[-1]
        weight = tf.Variable(tf.truncated_normal([num_in, num_out], stddev=0.1))
        bias = tf.Variable(tf.zeros([num_out, ]))
        output = tf.nn.xw_plus_b(x, weight, bias)
        if activation:
            output = activation(output, alpha=0.1)
        print("    Layer %d: type=Fc, num_out=%d, output_shape=%s"
              % (id, num_out, str(output.get_shape())))
        return output

    def _flatten(self, x):
        """flatten the x"""
        tran_x = tf.transpose(x, [0, 3, 1, 2])  # channle first mode
        nums = np.product(x.get_shape().as_list()[1:])
        return tf.reshape(tran_x, [-1, nums])

    def _build_detector(self):
        # 分界值
        index1 = self.cell_size*self.cell_size*self.classes
        index2 = index1 + self.cell_size*self.cell_size*self.box_per_cell

        # predicts [batch_size, 7*7*(20 + 2 + 2*4)
        # 分类预测值 [batch_size, 7, 7, 20]
        class_probs = tf.reshape(self.predicts[0, :index1], [self.cell_size, self.cell_size, self.classes])
        # 置信度 [batch_size, 7, 7, 2]
        confs = tf.reshape(self.predicts[0, index1:index2], [self.cell_size, self.cell_size, self.box_per_cell])
        # 预测边框 [batch_size, 7, 7, 2, 4]
        boxes = tf.reshape(self.predicts[0, index2:], [self.cell_size, self.cell_size, self.box_per_cell, 4])

        # 分类分数,转为[98, 20]分数值
        scores = tf.expand_dims(confs, axis=-1)*tf.expand_dims(class_probs, axis=2)
        scores = tf.reshape(scores, [-1, self.classes])

        """
        预测边框 [x, y, w, h],x,y是box左上角坐标的偏移值, w, h是根号width, 根号height
        将其转为 [左上角, 右下角]
        """
        # 得到x, y坐标和真实长宽
        boxes = tf.stack([(boxes[:, :, :, 0] + tf.constant(self.x_offset, dtype=tf.float32)) * self.image_scale,
                          (boxes[:, :, :, 1] + tf.constant(self.y_offset, dtype=tf.float32)) * self.image_scale,
                          tf.square(boxes[:, :, :, 2]) * self.image_size,
                          tf.square(boxes[:, :, :, 3]) * self.image_size], axis=3)
        boxes = tf.reshape(boxes, [-1, 4])
        # 将其转为[左上角, 右下角]
        predict_boxes = tf.stack([boxes[:, 0] - boxes[:, 2]/2,
                                  boxes[:, 1] - boxes[:, 3]/2,
                                  boxes[:, 0] + boxes[:, 2]/2,
                                  boxes[:, 1] + boxes[:, 3]/2], axis=1)

        self.scores = scores
        self.boxes = predict_boxes

    def _load_weights(self, weights_file):
        print("Start to load weights from file:%s" % (weights_file))
        saver = tf.train.Saver()
        saver.restore(self.sess, weights_file)

    def detect_from_file(self, image_file):
        image = cv2.imread(image_file)
        img_resized = cv2.resize(image, (448, 448))
        img_RGB = cv2.cvtColor(img_resized, cv2.COLOR_BGR2RGB)
        img_resized_np = np.asarray(img_RGB)
        _images = np.zeros((1, 448, 448, 3), dtype=np.float32)
        _images[0] = (img_resized_np / 255.0) * 2.0 - 1.0
        scores, boxes = self.sess.run([self.scores, self.boxes], feed_dict={self.images: _images})
        self.sess.close()
        return scores, boxes

if __name__ == '__main__':
    weights_path = r'./weights/YOLO_small.ckpt'
    image_path = r'../test_image/dog.jpg'
    predict = Yolov1(weights_path)
    scores, boxes = predict.detect_from_file(image_path)
    print('scores shape =', scores.shape)
    print('boxes shape =', boxes.shape)
    print('scores =', scores.astype(np.int32))
    print('boxes =', boxes.astype(np.int32))
"""
	得到输出
	scores shape = (98, 20)
	boxes shape = (98, 4)
	scores = 	[[0 0 0 ... 0 0 0]
				 [0 0 0 ... 0 0 0]
				 [0 0 0 ... 0 0 0]
				 ...
				 [0 0 0 ... 0 0 0]
				 [0 0 0 ... 0 0 0]
				 [0 0 0 ... 0 0 0]]
	boxes = 	[[  2  18  28  70]
				 [ 16  18  71  63]
				 [ 72  18 131  62]
				 [ 71   9 119  47]
				 [127  11 179  31]
				 [126  21 190  56]
				 ...
				 [389 386 434 436]]
"""
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179
  • 180
  • 181
  • 182
  • 183
  • 184
  • 185
  • 186
  • 187
  • 188
  • 189
  • 190
  • 191
  • 192
  • 193
  • 194
  • 195
  • 196
  • 197
  • 198
  • 199
  • 200
  • 201
  • 202
  • 203
  • 204
  • 205
  • 206
  • 207
  • 208
  • 209
  • 210
  • 211
  • 212
  • 213
  • 214
  • 215
  • 216
  • 217
  • 218
  • 219
  • 220
  • 221

上面代码可以得到结果scores及边框(左上角,右下角),首先我们来看下整个网络架构,输入一张448x448的图片,经过卷积和池化计算最后得到一个(1,1470)全连接层(也就是7x7x30)这就是我们从网络得到的预测值(其中值得注意的是每一个卷积都会添加一些padding,这是为了最后一层得到 1470的网络)
在这里插入图片描述
其中这1470的组合是这样的,

  • 前980(7, 7, 20)个值是20个种类的one-hot值,如[0, 0, 0, 1, 0…0],非0位置的索引就是预测的种类
  • 中间98(7,7, 2)个值是种类的置信度,每个格子有两个置信度
  • 最后392 (7, 7, 2,4)个值是两个边框的值,每个格子有两个预测的边框
  • 即每个格子预测两个边框,所以总共预测7x7x2=98个边框
  •   # 分界值
      index1 = self.cell_size*self.cell_size*self.classes
      index2 = index1 + self.cell_size*self.cell_size*self.box_per_cell
    
      # predicts [batch_size, 7*7*(20 + 2 + 2*4)
      # 分类预测值 [batch_size, 7, 7, 20]
      class_probs = tf.reshape(self.predicts[0, :index1], [self.cell_size, self.cell_size, self.classes])
      # 置信度 [batch_size, 7, 7, 2]
      confs = tf.reshape(self.predicts[0, index1:index2], [self.cell_size, self.cell_size, self.box_per_cell])
      # 预测边框 [batch_size, 7, 7, 2, 4]
      boxes = tf.reshape(self.predicts[0, index2:], [self.cell_size, self.cell_size, self.box_per_cell, 4])
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

接下来我们来计算他们预测的分数值,即分类预测值 class_prob x 置信度confs
因为维度原因将 class_prob(7,7,20)拓宽为(7, 7, 1, 20),将 置信度(7,7,2)拓宽为(7, 7, 2, 1)相乘即可得到(7, 7, 2,20),然后转为[98,20]的矩阵。这个矩阵就是98个预测边框的分数值

# 分类分数,转为[98, 20]分数值
scores = tf.expand_dims(confs, axis=-1)*tf.expand_dims(class_probs, axis=2)
scores = tf.reshape(scores, [-1, self.classes])
  • 1
  • 2
  • 3

接下来我们看下边框boxes怎么转化为左上角和右下角的坐标,首先来看下边框预测值的定义,首先预测边框 [7, 7, 2, 4],可以理解成[98, 4],其中4分别就是[x, y, w,h],其中

  • x,y 不是坐标值,是一个偏移量,是当前格子相对于左上角坐标的偏移量。
  • w,h 是相对于长宽的百分比的平方根
    说的非常抽象,我们来看下下面这个例子。假如预测点[0.24, 0.57, 0.55, 0.39]落在左上角坐标是(4, 1)这个格子内,因为图像大小是448x448,那么一格的长度是64x64,左上角真实的坐标是(4x64=256, 1x64=64)=(256,64)
    x相对于左上角的坐标是 64x0.24 = 15(向下取整),转为真实坐标是 15+256 = 271
    y相对于左上角的坐标是 64x0.57 = 36(向下取整),转为真实坐标是 15+64 = 100
    width的长度是 0.55x0.55x448 = 135
    height的长度是 0.39x0.39x448 = 68
    最后我们可以得到此时的[x, y, w,h]为[271, 100, 135, 68],此时得到的是矩形框中心点的坐标及长度宽度
    左上角坐标(x - w/2 = 271 - 135/2 = 204, y - h/2 = 100 - 68/2 = 66) ===> (204, 66)
    右下角坐标(x + w/2 = 271 + 135/2 = 338, y + h/2 = 100 + 68/2 = 134) ==> (338, 134)
# 得到x, y坐标和真实长宽
# 偏移坐标值 [7, 7 ,2]
self.x_offset = np.transpose(np.reshape(
    np.array([np.arange(self.cell_size)] * self.cell_size * self.box_per_cell),
    [self.box_per_cell, self.cell_size, self.cell_size]),
    [1, 2, 0])
self.y_offset = np.transpose(self.x_offset, [1, 0, 2])
boxes = tf.stack([(boxes[:, :, :, 0] + tf.constant(self.x_offset, dtype=tf.float32)) * self.image_scale,
                  (boxes[:, :, :, 1] + tf.constant(self.y_offset, dtype=tf.float32)) * self.image_scale,
                  tf.square(boxes[:, :, :, 2]) * self.image_size,
                  tf.square(boxes[:, :, :, 3]) * self.image_size], axis=3)
boxes = tf.reshape(boxes, [-1, 4])
# 将其转为[左上角, 右下角]
predict_boxes = tf.stack([boxes[:, 0] - boxes[:, 2]/2,
                          boxes[:, 1] - boxes[:, 3]/2,
                          boxes[:, 0] + boxes[:, 2]/2,
                          boxes[:, 1] + boxes[:, 3]/2], axis=1)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

在这里插入图片描述
至此为止,我们可以得到分数值scores[98,20],预测边框[98, 4],我们先不做极大值抑制和阈值筛选,把边框绘制下来如下所示。
在这里插入图片描述

二、非极大值抑制和阈值筛选

我们先筛选小于0.1阈值的scores

def _pre_process(self, scores, boxes):
    # 得到每个boxes的分类
    box_classes = tf.argmax(scores, axis=1)
    # 得到每个boxes的最大分数
    box_class_scores = tf.reduce_max(scores, axis=1)
    # 剔除小于0.1阈值的数
    filter_mask = box_class_scores >= 0.1
    scores = tf.boolean_mask(box_class_scores, filter_mask)
    boxes = tf.boolean_mask(boxes, filter_mask)
    box_classes = tf.boolean_mask(box_classes, filter_mask)

    scores = self.sess.run(scores)
    boxes = self.sess.run(boxes)
    box_classes = self.sess.run(box_classes)
    classes = []
    for i in box_classes:
        classes.append(self.classes_list[i])
    return scores, boxes, classes
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

绘制boxes得到下面的图像,由于边框很多都重复了,这是就要运行我们非极大值抑制了(可以查看我前面文章有专门介绍运行这个算法的细节)
在这里插入图片描述
更改上面的函数,假如TensorFlow的non_max_suppression非极大值抑制算法。得出最后的图像如下所示

def _pre_process(self, scores, boxes):
    # 得到每个boxes的分类
    box_classes = tf.argmax(scores, axis=1)
    # 得到每个boxes的最大分数
    box_class_scores = tf.reduce_max(scores, axis=1)
    # 剔除小于0.1阈值的数
    filter_mask = box_class_scores >= 0.1
    scores = tf.boolean_mask(box_class_scores, filter_mask)
    boxes = tf.boolean_mask(boxes, filter_mask)
    box_classes = tf.boolean_mask(box_classes, filter_mask)
    # 非极大值抑制
    nms_indices = tf.image.non_max_suppression(boxes, scores, 10, 0.4)
    boxes = tf.gather(boxes, nms_indices)
    scores = tf.gather(scores, nms_indices)
    box_classes = tf.gather(box_classes, nms_indices)

    scores = self.sess.run(scores)
    boxes = self.sess.run(boxes)
    box_classes = self.sess.run(box_classes)
    classes = []
    for i in box_classes:
        classes.append(self.classes_list[i])
    return scores, boxes, classes
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

在这里插入图片描述

三、构建自己的训练数据

总结一下yolo预测模型的步骤

  • ① 从模型中得出predicts(1, 1470)的张量,转为分类预测值[7, 7, 20],置信度 [7, 7, 2],预测边框 [7, 7, 2, 4]
  • ② 分类预测值x置信度得到各个类别的分数 [98, 20],将预测边框坐标值[98, 4]
  • ③ 筛选低于阈值的数值,运行极大值抑制得出预测边框

从上面可以看出如果是我们从零开始训练yolo,我们首先也要根据格式将已经标注的转为[x, y, w,h],如下面的的一张图片
在这里插入图片描述
这里我们用voc2007,下载后的文件如下所示
在这里插入图片描述
我们只关注Annotation,和JPEGImages两个文件夹。下面我们逐个分析每一个文件夹下面的内容:
Annotation:里面是xml数据,里面包含了图片的边框信息
在这里插入图片描述
在这里插入图片描述
JPEGImages:就是里面图片数据
在这里插入图片描述

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号