赞
踩
多任务学习经常会出现跷跷板现象,即两个任务联合学习的时候,可能一个任务效果变好,另一个任务效果变差。究其本质,核心是训练过程中存在以下3个方面问题:
比较容易想到的是,多目标loss设计要满足以下两点,避免被某个任务主导:
AI上推荐 之 多任务loss优化(自适应权重篇)_翻滚的小@强的博客-CSDN博客
ShowMeAI知识社区深度学习中的multi task learning——optimization strategy部分 - 知乎
多任务学习优化(Optimization in Multi-task learning) - 知乎
PCGrad方法:深度学习的多个loss如何平衡? - 知乎
多任务学习——【ICLR 2020】PCGrad_小爷毛毛(卓寿杰)的博客-CSDN博客
任务不确定性:关于多任务学习中的均衡loss方法之一 - 算法之道
作者自己的方法,没有论文,仅供参考:
针对上述多任务学习优化过程中的问题,业内有一系列的工作进行解决。今天给大家介绍4篇通过梯度优化提升多任务学习效果的方法。
具体参考: 多任务学习中各loss权重应该如何设计呢? - 知乎
Uncertainty Loss不确定损失_CharpYu的博客-CSDN博客
参考文章:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。