当前位置:   article > 正文

人工智能学习与实训笔记(一):零基础入门学习与实训笔记_人工智能github入门教程

人工智能github入门教程

本篇目录

一、什么是神经网络模型

二、 回归问题:使用Python和NumPy实现波士顿房价预测任务

三、关于网络模型

3.1 单层网络

​编辑

3.2 多层网络

3.3 非线性多层网络

四、图像分类问题:手写数字识别模型的实现

4.1 尝试使用全连接神经网络

4.2 引入卷积神经网络

 4.3 分类函数Softmax

4.4 交叉熵损失函数

4.5 学习率优化算法

4.6 图像预处理算法

4.6.1 随机改变亮暗、对比度和颜色等

4.6.2 随机填充

4.6.3 随机裁剪

4.6.4 随机缩放

4.6.5 随机翻转

4.6.6 随机打乱真实框排列顺序

五、目标检测问题

5.1 目标检测基础概念

5.1.1 边界框(bounding box)

5.1.2 锚框(Anchor box)

5.1.3 交并比

5.2 单阶段目标检测模型YOLOv3

5.2.1 YOLOv3模型设计思想

5.2.2 YOLOv3模型训练过程

六、自然语言处理

6.1 词向量 (Word Embedding)

6.1.1 词向量的生成过程

6.1.2 word2vec介绍

6.1.3 word2vec:skip-gram算法的实现

6.2 句向量 - 情感分析

6.2.1 LSTM (Long Short-Term Memory)介绍

6.2.2 基于飞桨实现的情感分析模型

6.3 BERT

七、推荐系统

7.1 常用的推荐系统算法

7.2 如何实现推荐

7.3 基于飞桨实现的电影推荐模型

7.3.1 电影数据类型

7.3.2 数据处理

7.3.4 数据读取器

7.3.4 网络构建

7.3.4.1用户特征提取

7.3.4.2 电影特征提取

7.3.4.3 相似度计算

7.3.4.4 网络模型完整代码

7.3 根据推荐案例的思考

八、百度飞桨套件使用

8.1 飞桨预训练模型套件PaddleHub

8.1.1 一些本机CPU可运行的飞桨预训练简单模型(亲测可用)

8.1.1.1 人脸检测模型

8.1.1.2 中文分词模型

8.1.2 预训练模型Fine-tune

8.2 飞桨开发套件

8.2.1 PaddleSeg - 图像分割

8.2.2 PaddleNLP - 自然语言处理

九、模型压缩与知识蒸馏

9.1 知识蒸馏

9.1.1 知识蒸馏的原理

9.1.2 知识蒸馏的种类

9.1.3 知识蒸馏的作用


一、什么是神经网络模型

简而言之:神经网络模型是拟合现实问题的函数方程,通过输入得到输出。

只不过这个函数是用神经网络的参数来拟合的,神经网络的参数是通过大量数据的训练获得,训练效果越好,则函数越逼近现实情况,就可以用来解决各种实际任务。

机器学习最根本的目的在于训练出在某个问题上泛化能力强的模型。泛化能力强是指在某问题的所有数据上都能很好地反应输入和输出之间的关系,无论是训练数据,还是测试数据,还是任何属于该问题的未知数据

神经网络经常处理的问题包括:回归问题,图像分类问题,目标检测问题,自然语言处理,喜好推荐等等。

一个简单的网络模型函数如下:

y=w1*x1 + w2*x2 + w3*x3... 

其中,y是函数值(模型输出的预测值),x1,x2, x3...是输入值,w1, w2, w3...是网络参数。

二、 回归问题:使用Python和NumPy实现波士顿房价预测任务

神经网络模型预测数据中比较常见的是回归问题,根据输入的数值得到输出的数值。使用Python来实现波士顿房价预测是AI课程里类似“hello world”的经典入门案例,主要有以下一些要点需注意:

1. 样本数据需要归一化,使得后续的神经网络模型参数可表征有效的权重。样本数据归一化是以列(特征值)为单位的。注意,在用测试集测试模型时,模型输出的函数预测值需要进行反归一化。


2. 数据集划分:80%用于训练,20%用于测试,训练和测试数据集必须分开,才能验证网络的有效性。


3. 影响波士顿房价的样本数据有13个特征值,每个特征值会有不同的权重,因此神经网络模型的可调参数为13个,分别代表不同特征值对最终房价影响的权重:y=w1*x1 + w2*x2 + ... +w13*x13


4. 损失函数是模型输出的值与样本数据中实际值偏差的一种表达函数,损失函数的选择既要考虑准确衡量问题的“合理性”,也还要考虑“易于优化求解”。


5. 训练过程就是通过不断调整网络模型参数,将损失函数的值降到最小(收敛)的过程, 损失函数的收敛需要通过梯度下降法来不断训练。以房价预测任务为例,影响房价的特征值有13个,因此我们需要调教的模型参数也是13个,这13个特征值和损失函数的值共同构成一个14维的空间,在这个空间中存在一个方向(13个参数构成向量决定这个方向)使得损失函数的值(预测值和实际值之偏差)下降最快。我们步进地将13个参数构成的向量朝此方向做出微调,再重新计算损失函数的值,如此往复,直到损失函数的值收敛趋于最小,则参数训练完成。

6. 数据集采用分批训练的方式,batch的取值会影响模型训练效果,batch过大,会增大内存消耗和计算时间,且训练效果并不会明显提升(每次参数只向梯度反方向移动一小步,因此方向没必要特别精确);batch过小,每个batch的样本数据没有统计意义,计算的梯度方向可能偏差较大。由于房价预测模型的训练数据集较小,因此将batch设置为10

       

Python源码 - 波士顿房价模型训练及测试:

  1. # 导入需要用到的package
  2. import numpy as np
  3. import json
  4. import matplotlib.pyplot as plt
  5. def load_data():
  6. # 从文件导入数据
  7. datafile = './work/housing.data'
  8. data = np.fromfile(datafile, sep=' ')
  9. # 每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
  10. feature_names = [ 'CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 'RM', 'AGE', \
  11. 'DIS', 'RAD', 'TAX', 'PTRATIO', 'B', 'LSTAT', 'MEDV' ]
  12. feature_num = len(feature_names)
  13. # 将原始数据进行Reshape,变成[N, 14]这样的形状
  14. data = data.reshape([data.shape[0] // feature_num, feature_num])
  15. # 将原数据集拆分成训练集和测试集
  16. # 这里使用80%的数据做训练,20%的数据做测试
  17. # 测试集和训练集必须是没有交集的
  18. ratio = 0.8
  19. offset = int(data.shape[0] * ratio)
  20. training_data = data[:offset]
  21. # 计算训练集的最大值,最小值(找的是每一列的极值)
  22. global maximums, minimums
  23. #maximums, minimums = data.max(axis=0), data.min(axis=0)
  24. maximums, minimums = training_data.max(axis=0), training_data.min(axis=0)
  25. #print("max:", maximums, "min:", minimums)
  26. # 对数据进行归一化处理,按列归一化处理
  27. for i in range(feature_num):
  28. data[:, i] = (data[:, i] - minimums[i]) / (maximums[i] - minimums[i])
  29. #print("归一化后的数据:\n", data)
  30. # 训练集和测试集的划分比例
  31. training_data = data[:offset]
  32. test_data = data[offset:]
  33. return training_data, test_data
  34. # 获取数据
  35. training_data, test_data = load_data()
  36. x = training_data[:, :-1] #所有行+所有列(除了最后一列)
  37. y = training_data[:, -1:] #所有行+最后一列
  38. #w = [1, 2, 3] #shape = (3,)
  39. #w = [[1], [2], [3]] #shape = (3,1)
  40. #w = [[1,1], [2,2], [3,3]] #shape = (3,2)
  41. #x = np.array(w)
  42. # 查看数据
  43. #print(x.shape)
  44. #print(y.shape)
  45. class Network(object):
  46. def __init__(self, num_of_weights):
  47. # 随机产生w的初始值
  48. # 为了保持程序每次运行结果的一致性,
  49. # 此处设置固定的随机数种子
  50. np.random.seed(0)
  51. self.w = np.random.randn(num_of_weights, 1)
  52. #print("init self.w", self.w)
  53. self.b = 0.
  54. def forward(self, x):
  55. z = np.dot(x, self.w) + self.b #x是[404,13]的矩阵(404行,13列), w是[13, 1]的矩阵(13行,1列),做点乘
  56. return z
  57. def loss(self, z, y):
  58. error = z - y
  59. #print(error.shape)
  60. cost = error * error
  61. cost = np.mean(cost)
  62. return cost
  63. def gradient(self, x, y):
  64. z = self.forward(x)
  65. gradient_w = (z-y)*x #梯度公式
  66. gradient_w = np.mean(gradient_w, axis=0) #对各列求均值
  67. gradient_w = gradient_w[:, np.newaxis]
  68. gradient_b = (z - y)
  69. gradient_b = np.mean(gradient_b)
  70. return gradient_w, gradient_b
  71. def update(self, gradient_w, gradient_b, eta = 0.01):
  72. self.w = self.w - eta * gradient_w
  73. self.b = self.b - eta * gradient_b
  74. def train(self, x, y, iterations=100, eta=0.01):
  75. losses = []
  76. for i in range(iterations):
  77. z = self.forward(x)
  78. L = self.loss(z, y)
  79. gradient_w, gradient_b = self.gradient(x, y)
  80. self.update(gradient_w, gradient_b, eta)
  81. losses.append(L)
  82. if (i+1) % 10000 == 0:
  83. print('iter {}, loss {}'.format(i, L))
  84. return losses
  85. # 运行模式一:每次用所有数据进行训练
  86. train_data, test_data = load_data()
  87. x = train_data[:, :-1]
  88. #print("x.shape:", x.shape)
  89. y = train_data[:, -1:]
  90. # 创建网络
  91. net = Network(13)
  92. num_iterations=100000
  93. # 启动训练
  94. losses = net.train(x,y, iterations=num_iterations, eta=0.01)
  95. # 画出损失函数的变化趋势
  96. """
  97. plot_x = np.arange(num_iterations)
  98. plot_y = np.array(losses)
  99. plt.plot(plot_x, plot_y)
  100. plt.show()
  101. """
  102. #对数据做反归一化处理
  103. def restore_data(d):
  104. d = d* (maximums[-1] - minimums[-1]) + minimums[-1]
  105. return round(d,2)
  106. #用测试集做测试
  107. print("测试集测试结果:")
  108. x = test_data[:, :-1]
  109. y = test_data[:, -1:]
  110. z = net.forward(x)
  111. print("样本数据", "\t", "预测数据")
  112. print("-------------------------")
  113. for i in range(x.shape[0]):
  114. print(restore_data(y[i][0]), "\t\t", restore_data(z[i][0]))

三、关于网络模型

3.1 单层网络

(输入层) --w--> (输出层)


3.2 多层网络

(输入层) --w--> (隐含层) --w--> (隐含层) ... --> (输出层)

3.3 非线性多层网络

单层网络和多层网络默认只能表达线性变换,加入非线性激活函数后,可以表达非线性函数:

(输入层) --w--> (隐含层) --> (激活函数) --w--> (隐含层) --> (激活函数) ... --> (输出层)

加入非线性激励函数后,神经网络就有可能学习到平滑的曲线来分割平面,而不是用复杂的线性组合逼近平滑曲线来分割平面,使神经网络的表示能力更强了,能够更好的拟合目标函数。 这就是为什么我们要有非线性的激活函数的原因。

关于激活函数,可以参考:卷积神经网络中的激活函数sigmoid、tanh、relu_卷积神经网络激活函数_chaiky的博客-CSDN博客

四、图像分类问题:手写数字识别模型的实现

手写数字识别是典型的图像分类任务(0~9个数字一共是10个类别)。我们首先尝试使用典型的全连接神经网络。

4.1 尝试使用全连接神经网络

经典的全连接神经网络来包含四层网络:输入层、两个隐含层和输出层,将手写数字识别任务通过全连接神经网络表示:

  • 输入层:将数据输入给神经网络。在该任务中,输入层的尺度为28×28的像素值。
  • 隐含层:增加网络深度和复杂度,隐含层的节点数是可以调整的,节点数越多,神经网络表示能力越强,参数量也会增加。在该任务中,中间的两个隐含层为10×10的结构,通常隐含层会比输入层的尺寸小,以便对关键信息做抽象,激活函数使用常见的Sigmoid函数。
  • 输出层:输出网络计算结果,输出层的节点数是固定的。如果是回归问题,节点数量为需要回归的数字数量。如果是分类问题,则是分类标签的数量。在该任务中,模型的输出是回归一个数字,输出层的尺寸为1。

Python源码 - 激活函数为sigmoid的多层网络参考代码:

  1. import paddle.nn.functional as F
  2. from paddle.nn import Linear
  3. # 定义多层全连接神经网络
  4. class MNIST(paddle.nn.Layer):
  5. def __init__(self):
  6. super(MNIST, self).__init__()
  7. # 定义两层全连接隐含层,输出维度是10,当前设定隐含节点数为10,可根据任务调整
  8. self.fc1 = Linear(in_features=784, out_features=10)
  9. self.fc2 = Linear(in_features=10, out_features=10)
  10. # 定义一层全连接输出层,输出维度是1
  11. self.fc3 = Linear(in_features=10, out_features=1)
  12. # 定义网络的前向计算,隐含层激活函数为sigmoid,输出层不使用激活函数
  13. def forward(self, inputs):
  14. # inputs = paddle.reshape(inputs, [inputs.shape[0], 784])
  15. outputs1 = self.fc1(inputs)
  16. outputs1 = F.sigmoid(outputs1)
  17. outputs2 = self.fc2(outputs1)
  18. outputs2 = F.sigmoid(outputs2)
  19. outputs_final = self.fc3(outputs2)
  20. return outputs_final

然而,全连接神经网络模型并不适合图像分类模型,图像分类任务需要考虑图像数据的空间性,以及如何分类(波士顿房价预测是回归任务,是回归到一个具体数字,手写数字识别实际上是进行分类判断),对于图像识别和分类任务,我们需要引入卷积神经网络,Softmax激活函数以及交叉熵损失函数,整个流程如下图:

4.2 引入卷积神经网络

图像识别需要考虑数据的空间分布,更适合使用卷积神经网络模型,模型中包含卷积层(convolution)和池化层(subsampling),以及最后一个全连接层(fully connected)

关于卷积神经网络,可以参考这一篇:

PyTorch学习系列教程:卷积神经网络【CNN】 - 知乎

关于卷积核和输入,输出通道,可以参考这一篇:

如何理解卷积神经网络中的通道(channel)_卷积通道数_叹久01的博客-CSDN博客

Python源码 - 卷积神经网络参考代码:

  1. # 定义 SimpleNet 网络结构
  2. import paddle
  3. from paddle.nn import Conv2D, MaxPool2D, Linear
  4. import paddle.nn.functional as F
  5. # 多层卷积神经网络实现
  6. class MNIST(paddle.nn.Layer):
  7. def __init__(self):
  8. super(MNIST, self).__init__()
  9. # 定义卷积层,输出特征通道out_channels设置为20,卷积核的大小kernel_size为5,卷积步长stride=1,padding=2
  10. self.conv1 = Conv2D(in_channels=1, out_channels=20, kernel_size=5, stride=1, padding=2)
  11. # 定义池化层,池化核的大小kernel_size为2,池化步长为2
  12. self.max_pool1 = MaxPool2D(kernel_size=2, stride=2)
  13. # 定义卷积层,输出特征通道out_channels设置为20,卷积核的大小kernel_size为5,卷积步长stride=1,padding=2
  14. self.conv2 = Conv2D(in_channels=20, out_channels=20, kernel_size=5, stride=1, padding=2)
  15. # 定义池化层,池化核的大小kernel_size为2,池化步长为2
  16. self.max_pool2 = MaxPool2D(kernel_size=2, stride=2)
  17. # 定义一层全连接层,输出维度是1
  18. self.fc = Linear(in_features=980, out_features=1)
  19. # 定义网络前向计算过程,卷积后紧接着使用池化层,最后使用全连接层计算最终输出
  20. # 卷积层激活函数使用Relu,全连接层不使用激活函数
  21. def forward(self, inputs):
  22. x = self.conv1(inputs)
  23. x = F.relu(x)
  24. x = self.max_pool1(x)
  25. x = self.conv2(x)
  26. x = F.relu(x)
  27. x = self.max_pool2(x)
  28. x = paddle.reshape(x, [x.shape[0], -1])
  29. x = self.fc(x)
  30. return x

 4.3 分类函数Softmax

 为了进行分类判别,要通过引入Softmax函数到输出层,使得输出层的输出为不同类别概率的集合,并且所有概率之和为1,比如[0.1, 0.2, 0.7]

比如,一个三个标签的分类模型(三分类)使用的Softmax输出层,从中可见原始输出的三个数字3、1、-3,经过Softmax层后转变成加和为1的三个概率值0.88、0.12、0。

4.4 交叉熵损失函数

分类网络模型需要使用交叉熵损失函数不断训练更新模型参数,最终使得交叉熵趋于收敛,从而完成模型训练。

正确解标签对应的输出越大,交叉熵的值越接近0;当输出为1时,交叉熵误差为0。反之,如果正确解标签对应的输出越小,则交叉熵的值越大。 

要想搞清楚交叉熵,推荐大家读一下这篇文章:损失函数:交叉熵详解 - 知乎

里面又牵涉到极大似然估计理论,推荐阅读这篇文章:极大似然估计思想的最简单解释_class_brick的博客-CSDN博客

4.5 学习率优化算法

学习率是优化器的一个参数,调整学习率看似是一件非常麻烦的事情,需要不断的调整步长,观察训练时间和Loss的变化。经过研究员的不断的实验,当前已经形成了四种比较成熟的优化算法:SGDMomentumAdaGradAdam,效果如 所示。

3: 不同学习率算法效果示意图

  • SGD: 随机梯度下降算法,每次训练少量数据,抽样偏差导致的参数收敛过程中震荡。
  • Momentum: 引入物理“动量”的概念,累积速度,减少震荡,使参数更新的方向更稳定。
  • AdaGrad: 根据不同参数距离最优解的远近,动态调整学习率。学习率逐渐下降,依据各参数变化大小调整学习率。
  • Adam: 由于动量和自适应学习率两个优化思路是正交的,因此可以将两个思路结合起来,这就是当前广泛应用的算法。

4.6 图像预处理算法

在计算机视觉中,通常会对图像做一些随机的变化,产生相似但又不完全相同的样本。主要作用是扩大训练数据集,抑制过拟合,提升模型的泛化能力,常用的方法主要有以下几种:

  • 随机改变亮暗、对比度和颜色
  • 随机填充
  • 随机裁剪
  • 随机缩放
  • 随机翻转
  • 随机打乱真实框排列顺序

下面是分别使用numpy 实现这些数据增强方法。

4.6.1 随机改变亮暗、对比度和颜色等

  1. import numpy as np
  2. import cv2
  3. from PIL import Image, ImageEnhance
  4. import random
  5. # 随机改变亮暗、对比度和颜色等
  6. def random_distort(img):
  7. # 随机改变亮度
  8. def random_brightness(img, lower=0.5, upper=1.5):
  9. e = np.random.uniform(lower, upper)
  10. return ImageEnhance.Brightness(img).enhance(e)
  11. # 随机改变对比度
  12. def random_contrast(img, lower=0.5, upper=1.5):
  13. e = np.random.uniform(lower, upper)
  14. return ImageEnhance.Contrast(img).enhance(e)
  15. # 随机改变颜色
  16. def random_color(img, lower=0.5, upper=1.5):
  17. e = np.random.uniform(lower, upper)
  18. return ImageEnhance.Color(img).enhance(e)
  19. ops = [random_brightness, random_contrast, random_color]
  20. np.random.shuffle(ops)
  21. img = Image.fromarray(img)
  22. img = ops[0](img)
  23. img = ops[1](img)
  24. img = ops[2](img)
  25. img = np.asarray(img)
  26. return img
  27. # 定义可视化函数,用于对比原图和图像增强的效果
  28. import matplotlib.pyplot as plt
  29. def visualize(srcimg, img_enhance):
  30. # 图像可视化
  31. plt.figure(num=2, figsize=(6,12))
  32. plt.subplot(1,2,1)
  33. plt.title('Src Image', color='#0000FF')
  34. plt.axis('off') # 不显示坐标轴
  35. plt.imshow(srcimg) # 显示原图片
  36. # 对原图做 随机改变亮暗、对比度和颜色等 数据增强
  37. srcimg_gtbox = records[0]['gt_bbox']
  38. srcimg_label = records[0]['gt_class']
  39. plt.subplot(1,2,2)
  40. plt.title('Enhance Image', color='#0000FF')
  41. plt.axis('off') # 不显示坐标轴
  42. plt.imshow(img_enhance)
  43. image_path = records[0]['im_file']
  44. print("read image from file {}".format(image_path))
  45. srcimg = Image.open(image_path)
  46. # 将PIL读取的图像转换成array类型
  47. srcimg = np.array(srcimg)
  48. # 对原图做 随机改变亮暗、对比度和颜色等 数据增强
  49. img_enhance = random_distort(srcimg)
  50. visualize(srcimg, img_enhance)

4.6.2 随机填充

  1. # 随机填充
  2. def random_expand(img,
  3. gtboxes,
  4. max_ratio=4.,
  5. fill=None,
  6. keep_ratio=True,
  7. thresh=0.5):
  8. if random.random() > thresh:
  9. return img, gtboxes
  10. if max_ratio < 1.0:
  11. return img, gtboxes
  12. h, w, c = img.shape
  13. ratio_x = random.uniform(1, max_ratio)
  14. if keep_ratio:
  15. ratio_y = ratio_x
  16. else:
  17. ratio_y = random.uniform(1, max_ratio)
  18. oh = int(h * ratio_y)
  19. ow = int(w * ratio_x)
  20. off_x = random.randint(0, ow - w)
  21. off_y = random.randint(0, oh - h)
  22. out_img = np.zeros((oh, ow, c))
  23. if fill and len(fill) == c:
  24. for i in range(c):
  25. out_img[:, :, i] = fill[i] * 255.0
  26. out_img[off_y:off_y + h, off_x:off_x + w, :] = img
  27. gtboxes[:, 0] = ((gtboxes[:, 0] * w) + off_x) / float(ow)
  28. gtboxes[:, 1] = ((gtboxes[:, 1] * h) + off_y) / float(oh)
  29. gtboxes[:, 2] = gtboxes[:, 2] / ratio_x
  30. gtboxes[:, 3] = gtboxes[:, 3] / ratio_y
  31. return out_img.astype('uint8'), gtboxes
  32. # 对原图做 随机改变亮暗、对比度和颜色等 数据增强
  33. srcimg_gtbox = records[0]['gt_bbox']
  34. img_enhance, new_gtbox = random_expand(srcimg, srcimg_gtbox)
  35. visualize(srcimg, img_enhance)

4.6.3 随机裁剪

随机裁剪之前需要先定义两个函数,multi_box_iou_xywhbox_crop这两个函数将被保存在box_utils.py文件中。

  1. import numpy as np
  2. def multi_box_iou_xywh(box1, box2):
  3. """
  4. In this case, box1 or box2 can contain multi boxes.
  5. Only two cases can be processed in this method:
  6. 1, box1 and box2 have the same shape, box1.shape == box2.shape
  7. 2, either box1 or box2 contains only one box, len(box1) == 1 or len(box2) == 1
  8. If the shape of box1 and box2 does not match, and both of them contain multi boxes, it will be wrong.
  9. """
  10. assert box1.shape[-1] == 4, "Box1 shape[-1] should be 4."
  11. assert box2.shape[-1] == 4, "Box2 shape[-1] should be 4."
  12. b1_x1, b1_x2 = box1[:, 0] - box1[:, 2] / 2, box1[:, 0] + box1[:, 2] / 2
  13. b1_y1, b1_y2 = box1[:, 1] - box1[:, 3] / 2, box1[:, 1] + box1[:, 3] / 2
  14. b2_x1, b2_x2 = box2[:, 0] - box2[:, 2] / 2, box2[:, 0] + box2[:, 2] / 2
  15. b2_y1, b2_y2 = box2[:, 1] - box2[:, 3] / 2, box2[:, 1] + box2[:, 3] / 2
  16. inter_x1 = np.maximum(b1_x1, b2_x1)
  17. inter_x2 = np.minimum(b1_x2, b2_x2)
  18. inter_y1 = np.maximum(b1_y1, b2_y1)
  19. inter_y2 = np.minimum(b1_y2, b2_y2)
  20. inter_w = inter_x2 - inter_x1
  21. inter_h = inter_y2 - inter_y1
  22. inter_w = np.clip(inter_w, a_min=0., a_max=None)
  23. inter_h = np.clip(inter_h, a_min=0., a_max=None)
  24. inter_area = inter_w * inter_h
  25. b1_area = (b1_x2 - b1_x1) * (b1_y2 - b1_y1)
  26. b2_area = (b2_x2 - b2_x1) * (b2_y2 - b2_y1)
  27. return inter_area / (b1_area + b2_area - inter_area)
  28. def box_crop(boxes, labels, crop, img_shape):
  29. x, y, w, h = map(float, crop)
  30. im_w, im_h = map(float, img_shape)
  31. boxes = boxes.copy()
  32. boxes[:, 0], boxes[:, 2] = (boxes[:, 0] - boxes[:, 2] / 2) * im_w, (
  33. boxes[:, 0] + boxes[:, 2] / 2) * im_w
  34. boxes[:, 1], boxes[:, 3] = (boxes[:, 1] - boxes[:, 3] / 2) * im_h, (
  35. boxes[:, 1] + boxes[:, 3] / 2) * im_h
  36. crop_box = np.array([x, y, x + w, y + h])
  37. centers = (boxes[:, :2] + boxes[:, 2:]) / 2.0
  38. mask = np.logical_and(crop_box[:2] <= centers, centers <= crop_box[2:]).all(
  39. axis=1)
  40. boxes[:, :2] = np.maximum(boxes[:, :2], crop_box[:2])
  41. boxes[:, 2:] = np.minimum(boxes[:, 2:], crop_box[2:])
  42. boxes[:, :2] -= crop_box[:2]
  43. boxes[:, 2:] -= crop_box[:2]
  44. mask = np.logical_and(mask, (boxes[:, :2] < boxes[:, 2:]).all(axis=1))
  45. boxes = boxes * np.expand_dims(mask.astype('float32'), axis=1)
  46. labels = labels * mask.astype('float32')
  47. boxes[:, 0], boxes[:, 2] = (boxes[:, 0] + boxes[:, 2]) / 2 / w, (
  48. boxes[:, 2] - boxes[:, 0]) / w
  49. boxes[:, 1], boxes[:, 3] = (boxes[:, 1] + boxes[:, 3]) / 2 / h, (
  50. boxes[:, 3] - boxes[:, 1]) / h
  51. return boxes, labels, mask.sum()
  52. # 随机裁剪
  53. def random_crop(img,
  54. boxes,
  55. labels,
  56. scales=[0.3, 1.0],
  57. max_ratio=2.0,
  58. constraints=None,
  59. max_trial=50):
  60. if len(boxes) == 0:
  61. return img, boxes
  62. if not constraints:
  63. constraints = [(0.1, 1.0), (0.3, 1.0), (0.5, 1.0), (0.7, 1.0),
  64. (0.9, 1.0), (0.0, 1.0)]
  65. img = Image.fromarray(img)
  66. w, h = img.size
  67. crops = [(0, 0, w, h)]
  68. for min_iou, max_iou in constraints:
  69. for _ in range(max_trial):
  70. scale = random.uniform(scales[0], scales[1])
  71. aspect_ratio = random.uniform(max(1 / max_ratio, scale * scale), \
  72. min(max_ratio, 1 / scale / scale))
  73. crop_h = int(h * scale / np.sqrt(aspect_ratio))
  74. crop_w = int(w * scale * np.sqrt(aspect_ratio))
  75. crop_x = random.randrange(w - crop_w)
  76. crop_y = random.randrange(h - crop_h)
  77. crop_box = np.array([[(crop_x + crop_w / 2.0) / w,
  78. (crop_y + crop_h / 2.0) / h,
  79. crop_w / float(w), crop_h / float(h)]])
  80. iou = multi_box_iou_xywh(crop_box, boxes)
  81. if min_iou <= iou.min() and max_iou >= iou.max():
  82. crops.append((crop_x, crop_y, crop_w, crop_h))
  83. break
  84. while crops:
  85. crop = crops.pop(np.random.randint(0, len(crops)))
  86. crop_boxes, crop_labels, box_num = box_crop(boxes, labels, crop, (w, h))
  87. if box_num < 1:
  88. continue
  89. img = img.crop((crop[0], crop[1], crop[0] + crop[2],
  90. crop[1] + crop[3])).resize(img.size, Image.LANCZOS)
  91. img = np.asarray(img)
  92. return img, crop_boxes, crop_labels
  93. img = np.asarray(img)
  94. return img, boxes, labels
  95. # 对原图做 随机改变亮暗、对比度和颜色等 数据增强
  96. srcimg_gtbox = records[0]['gt_bbox']
  97. srcimg_label = records[0]['gt_class']
  98. img_enhance, new_labels, mask = random_crop(srcimg, srcimg_gtbox, srcimg_label)
  99. visualize(srcimg, img_enhance)

4.6.4 随机缩放

  1. # 随机缩放
  2. def random_interp(img, size, interp=None):
  3. interp_method = [
  4. cv2.INTER_NEAREST,
  5. cv2.INTER_LINEAR,
  6. cv2.INTER_AREA,
  7. cv2.INTER_CUBIC,
  8. cv2.INTER_LANCZOS4,
  9. ]
  10. if not interp or interp not in interp_method:
  11. interp = interp_method[random.randint(0, len(interp_method) - 1)]
  12. h, w, _ = img.shape
  13. im_scale_x = size / float(w)
  14. im_scale_y = size / float(h)
  15. img = cv2.resize(
  16. img, None, None, fx=im_scale_x, fy=im_scale_y, interpolation=interp)
  17. return img
  18. # 对原图做 随机缩放
  19. img_enhance = random_interp(srcimg, 640)
  20. visualize(srcimg, img_enhance)

4.6.5 随机翻转

  1. # 随机翻转
  2. def random_flip(img, gtboxes, thresh=0.5):
  3. if random.random() > thresh:
  4. img = img[:, ::-1, :]
  5. gtboxes[:, 0] = 1.0 - gtboxes[:, 0]
  6. return img, gtboxes
  7. # 对原图做 随机改变亮暗、对比度和颜色等 数据增强
  8. img_enhance, box_enhance = random_flip(srcimg, srcimg_gtbox)
  9. visualize(srcimg, img_enhance)

4.6.6 随机打乱真实框排列顺序

  1. # 随机打乱真实框排列顺序
  2. def shuffle_gtbox(gtbox, gtlabel):
  3. gt = np.concatenate(
  4. [gtbox, gtlabel[:, np.newaxis]], axis=1)
  5. idx = np.arange(gt.shape[0])
  6. np.random.shuffle(idx)
  7. gt = gt[idx, :]
  8. return gt[:, :4], gt[:, 4]

五、目标检测问题

对计算机而言,能够“看到”的是图像被编码之后的数字,但它很难理解高层语义概念,比如图像或者视频帧中出现的目标是人还是物体,更无法定位目标出现在图像中哪个区域。目标检测的主要目的是让计算机可以自动识别

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/778430
推荐阅读
相关标签
  

闽ICP备14008679号