赞
踩
N-最近邻分类指距离该点最近的N个数据点中多数属于哪个类别,就划分到哪个类别。
前序遍历:中,左,右
中序遍历:左,中,右
后序遍历:左,右,中
https://blog.csdn.net/tzs_1041218129/article/details/52311078
答案:堆
伪逆法:径向基(RBF)神经网络的训练算法,径向基解决的就是线性不可分的情况。
感知器算法:线性分类模型,无法处理非线性问题。
H-K算法:在最小均方误差准则下求得权矢量,二次准则解决非线性问题。
势函数法:势函数非线性。
答案: 2^n -1
建堆:O(n)
操作堆:O(logn)
在它前方比它大的数字有M个,则为M+1次。
采用该方法计算平均查找次数时,空的哈希地址也需要计算一次查找次数。
将隐藏节点的数量从指数级O(2^(n-1))减少到线性级O(3(n-1))
均值池化:对背景的保留效果更好。
最大池化:对纹理的提取效果更好。
网络退化:训练误差与测试误差同时上升
过拟合:训练误差下降,测试误差上升
防止数据分布变化产生的协变量偏移,和普通的标准化不同,为每一层的输出产生自适应的分布。
放在激活函数前:避免BN层破坏非线性分布,使得数据不落入激活函数饱和区域,缓解梯度消失。
放在激活函数后:对relu来说可以防止非线性特征分布趋于同化。
在卷积层之后,最后一层之前,使用全局平均池化,等价于全连接层的提取全局信息效果,但是大大降低参数量和计算量,同时具有较好的可解释性。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。