赞
踩
数据包括
训练数据
测试数据
通常,三者比例为 70 70%,15%,15%70 或 60 60%,20%,20%60,当数据很多时,训练和验证数据可适当减少
K 折交叉验证
原始训练数据被分成 K 个不重叠的子集。 然后执行 K 次模型训练和验证,每次在 K−1 个子集上进行训练, 并在剩余的一个子集(在该轮中没有用于训练的子集)上进行验证。 最后,通过对 K 次实验的结果取平均来估计训练和验证误差。
1.Root Mean Square Prop
RMSProp 解决 AdaGrad 方法中学习率过度衰减的问题;
RMSProp 使用指数衰减平均以丢弃遥远的历史,使其能够快速收敛;此外,RMSProp 还加入了超参数 ρ控制衰减速率。
具体来说(对比 AdaGrad 的算法描述),即修改 r 为:
处理非稳态数据
2.RMSProp 算法
1. Adaptive Moment Estimation
Adam 在 RMSProp 方法的基础上更进一步:
除了加入历史梯度平方的指数衰减平均 r 外,
还保留了历史梯度的指数衰减平均 s ,相当于动量。
Adam 行为就像一个带有摩擦力的小球,在误差面上倾向于平坦的极小值。
用于解决机器学习中的大数据量,高特征纬度的优化问题。
2. Adam 算法:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。