当前位置:   article > 正文

交替极小化算法(Alternating Minimization, AM算法)

am算法

AM算法:给定一个初值,交替的固定一个变量,优化其他的,主要求解无约束优化.
对于二元函数,AM算法在双稳定点(bistable point)停止,但有两个问题需要考虑的
1)收敛到双稳定点的速度,即算法收敛阶
2)收敛到的双稳定点是否是全局最小点
AM算法迭代没有参数,不必花时间调整参数,但也意味着用户对算法进程控制更少.AM算法的收敛性完全依赖优化问题的结构性质.
有界目标函数有多个双稳态点,AM最终收敛的稳定点取决于初始点的位置.
当AM算法求解学习隐变量模型,矩阵填充(子问题是边缘凸),相位恢复问题时,特别注意初始值接近最优点.而对于鲁棒回归(robust regression), 只有一个稳定点,所以对初值没有太多要求.
AM对于凸问题
(1)凸可微函数,所有双稳定点都是全局最小点.这与求解大规模凸优化问题的坐标极小化算法很类似(coordinate minimization)但是AM可以求解不可微的目标函数.(CM其实也可以,不过需要目标函数满足其他的性质, P. Tseng 2001, Convergence of a Block Coordinate Descent Method for Nondifferentiable Minimization)(非凸非光滑)
(2)连续可微边缘强光滑(二次函数做上界),初值=(0,0),可证明 O ( 1 ε ) \mathcal{O}(\frac{1}{\varepsilon}) O(ε1) 次迭代可达到误差 ε \varepsilon ε. 具体定理描述见Prateek Jain, Purushottam Kar《Non-convex Optimization for Machine Learning》的总结整理(2)的定理4.1.

AM对于非凸问题
(1)对于边缘凸函数,双稳态点等价于稳定点
(2)鲁棒双稳态性(robust bistability property)
在这里插入图片描述
右边:通过边缘优化,目标函数局部降低,性质表明,如果目标函数局部不怎么下降了,则接近最优值了.定义有个推论:满足鲁棒双稳态性质的函数,所有的双稳态点都能达到最优函数值.这个推理可由定义4.&#x

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/649302
推荐阅读
相关标签
  

闽ICP备14008679号