赞
踩
答案:目标检测算法分为单阶段和双阶段两大类。单阶段目标验测算法(one-stage),代表算法有 yolo 系列,SSD 系列;直接对图像进行计算生成检测结果,检测速度快,但检测精度低。双阶段目标验测算法(two-stage),代表算法 RCNN 系列;先对图像提取候选框,然后基于候选区域做二次修正得到检测点结果,检测精度较高,但检测速度较慢。【单阶段偏应用,因为在精度没有差很多的情况下,速度很快,就会选择单阶段目标检测算法;双阶段偏比赛,只注重精度高低,速度不考虑】
答案:RPN的作用是生成合适的region proposals。网络结构分为一个卷积层和一个两分支的网络,其中一个分支是softmax分类网络,另一个用于bbox回归。具体的步骤是:生成anchors -> softmax分类器提取 positive anchors -> 对positive anchors进行bbox 回归 -> Proposal Layer综合所有 positive anchors及其偏移量用来生成更精确的proposals。RPN最终就是在原图尺度上,设置了密密麻麻的候选Anchor。然后用cnn去找出其中的positive anchors并对它进行回归,使得框的大小和位置更准确。生成anchor的过程:特征图上每个点都配备k个anchor,然后对每个anchor要做二分类和四个值的回归。
NMS,一句话概括就是去除重复的检测框。非极大值抑制,顾名思义就是抑制不是极大值的元素,在目标检测中,就是提取置信度高的目标检测框,而抑制置信度低的误检框。使用深度学习模型会检测出很多目标框,具体数量由anchor数量决定,其中有很多重复的框定位到同一个目标,nms用来去除这些重复的框,获得真正的目标框。
NMS代码实现:
import numpy as np def NMS(dects,threshhold): """ input: detcs:二维数组(n_samples,5),5列:x1,y1,x2,y2,score threshhold: IOU阈值 """ x1=dects[:,0] y1=dects[:,1] x2=dects[:,2] y2=dects[:,3] score=dects[:,4] ndects=dects.shape[0]#box的数量 area=(x2-x1+1)*(y2-y1+1) order=score.argsort()[::-1] #score从大到小排列的indexs,一维数组 keep=[] #保存符合条件的index suppressed=np.array([0]*ndects) #初始化为0,若大于threshhold,变为1,表示被抑制 for _i in range(ndects): i=order[_i] #从得分最高的开始遍历 if suppressed[i]==1: continue keep.append(i) for _j in range(i+1,ndects): j=order[_j] if suppressed[j]==1: #若已经被抑制,跳过 continue xx1=np.max(x1[i],x1[j])#求两个box的交集面积interface yy1=np.max(y1[i],y1j]) xx2=np.min(x2[i],x2[j]) yy2=np.min(y2[i],y2[j]) w=np.max(0,xx2-xx1+1) h=np.max(0,yy2-yy1+1) interface=w*h overlap=interface/(area[i]+area[j]-interface) #计算IOU(交/并) if overlap>=threshhold:#IOU若大于阈值,则抑制 suppressed[j]=1 return keep 【dects自己随便设置个数组测试即可】
在卷积神经网络CNN中,决定某一层输出结果中一个元素所对应的输入层的区域大小,被称作感受野。用数学的语言感受野就是CNN中的某一层输出结果的一个元素对应输入层的一个映射。再通俗点的解释是,feature map上的一个点对应输入图上的区域。
https://blog.csdn.net/weixin_46112766/article/details/109255872
首先我们要知道什么情况属于发生了梯度消失现象,如:模型无法从训练数据中获得更新(如低损失);模型不稳定,导致更新过程中的损失出现显著变化;训练过程中,模型损失变成 NaN。
解决办法:
重新设计网络模型
梯度爆炸可以通过重新设计层数更少的网络来解决。使用更小的批尺寸(batchsize)
对网络训练也有好处。另外也许是学习率(learning rate)
过大导致的问题,减小学习率。
使用 ReLU 激活函数
梯度爆炸的发生可能是因为激活函数,如之前很流行的Sigmoid和Tanh函数。使用ReLU激活函数可以减少梯度爆炸。采用ReLU激活函数是最适合隐藏层的,是目前使用最多的激活函数。
relu函数的导数在正数部分是恒等于1的,因此在深层网络中使用relu激活函数就不会导致梯度消失和爆炸的问题。relu的主要贡献在于解决了梯度消失、爆炸的问题计算方便,计算速度快,加速了网络的训练同时也存在一些缺点:由于负数部分恒为0,会导致一些神经元无法激活(可通过设置小学习率部分解决)输出不是以0为中心的
使用leaky relu
leak relu就是为了解决relu的0区间带来的影响,而且包含了relu的所有优点,其数学表达为: l e a k y r
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。