赞
踩
在
深
度
视
觉
有
3
大
基
础
任
务
:
目
标
识
别
,
目
标
检
测
(
识
别
出
物
体
,
并
指
出
位
置
)
,
目
标
分
割
,
在深度视觉有3大基础任务: \\目标识别, \\目标检测(识别出物体,并指出位置), \\目标分割,
在深度视觉有3大基础任务:目标识别,目标检测(识别出物体,并指出位置),目标分割,
epoch 英[ˈiːpɒk] 美[ˈepək]
n. 时代; 纪元; 时期; 世(地质年代,纪下分世);
batch 英[bætʃ] 美[bætʃ]
n. 一批; (食物、药物等)一批生产的量; 批;
v. 分批处理;
样本大小,样本多少
iteration 英[ˌɪtəˈreɪʃn]
美[ˌɪtəˈreɪʃn]
n. 迭代; (计算机)新版软件;
n. 丧失; 损失; 丢失; 亏损; 亏蚀; 去世; 逝世;
英[ˈtʃænl] 美[ˈtʃænl]
n. 电视台; 频道; 波段; 途径; 渠道; 系统;
v. 为…引资; 引导; 贯注; (利用某途径)输送资金,提供帮助; (经过通道)输送,传送;
如果是单通道图像,即灰度图,如果是多通道图像,比如 RGB 图像,则每个像素用三个字节表示
超参数也是一种参数,它具有参数的特性,比如未知,也就是它不是一个已知常量。
是一种手工可配置的设置,需要为它根据已有或现有的经验,指定“正确”的值,也就是人为为它设定一个值,它不是通过系统学习得到的。
下图为超参数学习律对算法的影响:
直接使用梯度下降法速度慢,占用大量内存
随机梯度下降法,也叫增量梯度下降法,对每个样本都进行更新,但存在方差大,损失函数震荡严重的问题。
随机选取一部分训练样本
一种当验证集上的性能不再提高时停止训练集上学习的方法。旨在克服过拟合现象。
所有损害优化的方法都是正则化:增加优化约束(L1/L2约束,数据增强),干扰优化过程(权重衰减、随机梯度下降、提前停止)
希望数据集是无偏采样:
解释偏差的一种方法:
算法的期望误差分解为三个非负项的和,即样本真实噪音noise、bias和 variance(偏差+方差+噪声)
R
(
f
)
=
(
b
i
a
s
)
2
+
v
a
r
i
a
n
c
e
+
n
o
i
s
e
=
E
x
[
(
E
D
[
f
D
(
x
)
−
f
∗
(
x
)
]
)
2
]
+
E
x
[
E
D
[
(
f
D
(
x
)
−
E
D
[
f
D
(
x
)
]
)
2
]
]
+
E
(
x
,
y
)
∼
p
(
x
,
y
)
[
(
y
−
f
∗
(
x
)
)
2
]
R(f)=(bias)^2+variance+noise\\ =E_x[(E_D[f_D(x)-f^*(x)])^2]+E_x[E_D[(f_D(x)-E_D[f_D(x)])^2]]+E_{(x,y)\sim p(x,y)}[(y-f^*(x))^2]
R(f)=(bias)2+variance+noise=Ex[(ED[fD(x)−f∗(x)])2]+Ex[ED[(fD(x)−ED[fD(x)])2]]+E(x,y)∼p(x,y)[(y−f∗(x))2]
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。