赞
踩
答:循环学习率,快照融合
答:对分类,分割比较熟悉
答:数据增强,增大数据量;换更大更深的网络,更好的backbone;dropout,BN等
正确答案应该是
大概意思是:在训练中,BN的使用使得一个mini-batch中的所有样本都被关联在了一起,因此网络不会从某一个训练样本中生成确定的结果。
这句话什么意思呢?意思就是同样一个样本的输出不再仅仅取决于样本本身,也取决于跟这个样本属于同一个mini-batch的其它样本。同一个样本跟不同的样本组成一个mini-batch,它们的输出是不同的(仅限于训练阶段,在inference阶段是没有这种情况的)。我把这个理解成一种数据增强:同样一个样本在超平面上被拉扯,每次拉扯的方向的大小均有不同。不同于数据增强的是,这种拉扯是贯穿数据流过神经网络的整个过程的,意味着神经网络每一层的输入都被数据增强处理了。
---------------------
作者:qq_23150675
来源:CSDN
原文:https://blog.csdn.net/qq_23150675/article/details/79452685
版权声明:本文为博主原创文章,转载请附上博文链接!
但是我回答的是BN为啥work的原因,包括BN原论文解释的改善ICS现象,但是今年年初MIT的一篇论文《How Does Batch Normalizetion Help Optimization》推翻了这个结论,该论文认为
引入了 BN 后,损失函数相对于激活函数值的梯度幅值更小,也即损失函数更加利普希兹。损失函数相对于激活函数值的二阶项幅值更小,也即损失函数更加贝塔平滑。同理,损失函数相对于权重的梯度幅值也更小。 权重的最优解与初始解的距离也更小,也即神经网络更快就可以训练到最佳表现。(参考:https://www.zhihu.com/collection/226366658?page=4)
思路:
1>如果树为空,则直接返回错
2>如果树不为空:层序遍历二叉树
2.1>如果一个结点左右孩子都不为空,则pop该节点,将其左右孩子入队列;
2.1>如果遇到一个结点,左孩子为空,右孩子不为空,则该树一定不是完全二叉树;
2.2>如果遇到一个结点,左孩子不为空,右孩子为空;或者左右孩子都为空;则该节点之后的队列中的结点都为叶子节点;该树才是完全二叉树,否则就不是完全二叉树;
---------------------
作者:gogogo_sky
来源:CSDN
原文:https://blog.csdn.net/gogogo_sky/article/details/76223384
版权声明:本文为博主原创文章,转载请附上博文链接!
- #File Name : 是否为完全二叉树.py
- class Node(object):
- def __init__(self,val=None):
- self.val = val
- self.left = None
- self.right = None
- def isCBT(head):
- if not head:
- return True
- isLeaf = False
- queue = []
- queue.append(head)
- while queue:
- head = queue.pop(0)
- left = head.left
- right = head.right
- if (not left and right) or (isLeaf and (left or right)):
- # (not left) and right 右边存在 左边不存在
- # 或者是进入到全是叶节点状态后 有左或者右
- # 这两种情况都会返回F
- return False
- if left:
- queue.append(left)
- if right:
- queue.append(right)
- if not left or not right:
- isLeaf = True
- return True
- #---------------------
- #作者:桔梗的眼泪
- #来源:CSDN
- #原文:https://blog.csdn.net/weixin_40274123/article/details/93648891
- #版权声明:本文为博主原创文章,转载请附上博文链接!
问:AI lab业务偏多还是research偏多 面试官说:都会做,比较好的一点就是公司大中台战略,本身公司的业务场景就很多,所以有很多落地的工作可以做
问:AI lab的扩招情况,发展态势?AI lab的规模?
面试官本身是想让我回答不同的参数就能实现不同的功能效果,例如高斯模糊,腐蚀,锐化,膨胀等等
答:难易样本不平衡
答:1、OHEM的策略需要人工设计,而Focal loss是自适应调整样本的权重,是更优雅的解决方案, 能够达到更好的局部最优解
2、Focal loss还有阿尔法这个超参可以控制类别不平衡,而OHEM不行
答:只简单讲了adam和SGD,没复习到
具体参考https://www.cnblogs.com/ljygoodgoodstudydaydayup/p/7294671.html
c++的解法及思路: https://blog.csdn.net/fkyyly/article/details/83930343
- def f(arr):
- if len(arr)==0 or len(arr)==1:
- return 0
- if len(arr)==2:
- return arr[0]-arr[1]
- p1 = 0
- p2 = 1
- max = arr[p1]-arr[p2]
- n = len(arr)
- while p2<n:
- while p2<n and arr[p2]<arr[p1]:
- if arr[p1]-arr[p2]>max:
- max = arr[p1]-arr[p2]
- p2 += 1
-
- p1 = p2
- p2 += 1
- return max
答:O(n),O(1)
答:第一种初中数学,几何知识;第二种,求解仿射变换矩阵(2x3),然后和原图相乘,就得到变换后的图片,也就知道了最小外接矩形的长和宽
具体参考https://blog.csdn.net/flyyufenfei/article/details/80208361
问:这个提前批的面试流程,有几面
答:至少三面,没面过的不影响正式秋招
问:老师您在公司做的什么方面呢
答:广告方面的图像,cv-ad
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。