当前位置:   article > 正文

面试真题总结:Faster Rcnn,目标检测,卷积,梯度消失,Adam算法_faster rcnn面试题

faster rcnn面试题
目标检测可以分为两大类,分别是什么,他们的优缺点是什么呢?

答案:目标检测算法分为单阶段和双阶段两大类。单阶段目标验测算法(one-stage),代表算法有 yolo 系列,SSD 系列;直接对图像进行计算生成检测结果,检测速度快,但检测精度低。双阶段目标验测算法(two-stage),代表算法 RCNN 系列;先对图像提取候选框,然后基于候选区域做二次修正得到检测点结果,检测精度较高,但检测速度较慢。【单阶段偏应用,因为在精度没有差很多的情况下,速度很快,就会选择单阶段目标检测算法;双阶段偏比赛,只注重精度高低,速度不考虑】

Faster Rcnn,为什么设置RPN这个层?RPN如果没有的话,他会对大目标更好还是对小目标更好?问的是roi这一层呢?

答案:RPN的作用是生成合适的region proposals。网络结构分为一个卷积层和一个两分支的网络,其中一个分支是softmax分类网络,另一个用于bbox回归。具体的步骤是:生成anchors -> softmax分类器提取 positive anchors -> 对positive anchors进行bbox 回归 -> Proposal Layer综合所有 positive anchors及其偏移量用来生成更精确的proposals。RPN最终就是在原图尺度上,设置了密密麻麻的候选Anchor。然后用cnn去找出其中的positive anchors并对它进行回归,使得框的大小和位置更准确。生成anchor的过程:特征图上每个点都配备k个anchor,然后对每个anchor要做二分类和四个值的回归。

目标检测预测的时候为什么都会用到NMS?

NMS,一句话概括就是去除重复的检测框。非极大值抑制,顾名思义就是抑制不是极大值的元素,在目标检测中,就是提取置信度高的目标检测框,而抑制置信度低的误检框。使用深度学习模型会检测出很多目标框,具体数量由anchor数量决定,其中有很多重复的框定位到同一个目标,nms用来去除这些重复的框,获得真正的目标框。

NMS代码实现:

import numpy as np  

def NMS(dects,threshhold):    
	"""    
	input:      
		detcs:二维数组(n_samples,5),5列:x1,y1,x2,y2,score      
		threshhold: IOU阈值      
	"""    
	x1=dects[:,0]    
	y1=dects[:,1]    
	x2=dects[:,2]    
	y2=dects[:,3]    
	score=dects[:,4]    
	ndects=dects.shape[0]#box的数量    
	area=(x2-x1+1)*(y2-y1+1)    
	order=score.argsort()[::-1] #score从大到小排列的indexs,一维数组    
	keep=[] #保存符合条件的index    
	suppressed=np.array([0]*ndects) #初始化为0,若大于threshhold,变为1,表示被抑制   
    
	for _i in range(ndects):        
		i=order[_i]  #从得分最高的开始遍历        
		if suppressed[i]==1:            
			continue        
		keep.append(i)         
		for _j in range(i+1,ndects):            
			j=order[_j]            
			if suppressed[j]==1: #若已经被抑制,跳过                
				continue            
			xx1=np.max(x1[i],x1[j])#求两个box的交集面积interface 
        	yy1=np.max(y1[i],y1j])            
        	xx2=np.min(x2[i],x2[j])            
       	 	yy2=np.min(y2[i],y2[j])            
        	w=np.max(0,xx2-xx1+1)            
        	h=np.max(0,yy2-yy1+1)            
        	interface=w*h            
        	overlap=interface/(area[i]+area[j]-interface) #计算IOU(交/并)            
        	if overlap>=threshhold:#IOU若大于阈值,则抑制                
        		suppressed[j]=1    
 	return keep  
【dects自己随便设置个数组测试即可】
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
卷积网络里的感受野是什么意思?

在卷积神经网络CNN中,决定某一层输出结果中一个元素所对应的输入层的区域大小,被称作感受野。用数学的语言感受野就是CNN中的某一层输出结果的一个元素对应输入层的一个映射。再通俗点的解释是,feature map上的一个点对应输入图上的区域。
在这里插入图片描述

你都知道什么激活函数?

https://blog.csdn.net/weixin_46112766/article/details/109255872

梯度消失有什么办法规避么?如何确定是否出现梯度爆炸?

首先我们要知道什么情况属于发生了梯度消失现象,如:模型无法从训练数据中获得更新(如低损失);模型不稳定,导致更新过程中的损失出现显著变化;训练过程中,模型损失变成 NaN。

解决办法:

  1. 重新设计网络模型

    梯度爆炸可以通过重新设计层数更少的网络来解决。使用更小的批尺寸(batchsize)对网络训练也有好处。另外也许是学习率(learning rate)过大导致的问题,减小学习率。

  2. 使用 ReLU 激活函数

    梯度爆炸的发生可能是因为激活函数,如之前很流行的Sigmoid和Tanh函数。使用ReLU激活函数可以减少梯度爆炸。采用ReLU激活函数是最适合隐藏层的,是目前使用最多的激活函数。

    在这里插入图片描述

    relu函数的导数在正数部分是恒等于1的,因此在深层网络中使用relu激活函数就不会导致梯度消失和爆炸的问题。relu的主要贡献在于解决了梯度消失、爆炸的问题计算方便,计算速度快,加速了网络的训练同时也存在一些缺点:由于负数部分恒为0,会导致一些神经元无法激活(可通过设置小学习率部分解决)输出不是以0为中心的

  3. 使用leaky relu

在这里插入图片描述

leak relu就是为了解决relu的0区间带来的影响,而且包含了relu的所有优点,其数学表达为: l e a k y r

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/361757
推荐阅读
相关标签
  

闽ICP备14008679号