赞
踩
之后该博客mark连续学习相关工作
Panel嘉宾:
余山 (中国科学院自动化研究所)、李玺 (浙江大学)、王子磊 (中国科学技术大学)、孙干 (中国科学院沈阳自动化研究所)、刘宇 (大连理工大学)
Panel议题:
1. 连续学习、增量学习、终身学习的定义和目标是否是完全一致的?
2. 连续学习,特别是小样本连续学习,与元学习Meta learning在目标上的异同是什么,各自有什么应用的场景?
3. 目前大部分连续学习/增量学习方法仍依赖于完备的标注数据,请问在非监督或半监督学习条件下,是否有哪些可行的解决思路?
4. 当前不少连续学习/增量学习方法都或多或少地使用了旧类别的部分样本,请问基于replay的方法和不带有旧类exemplar的方法哪个才更是增量学习发展的主流?
5. 增量学习通常分为Task-incremental、domain-incremental以及class-incremental,它们的核心差异是什么?有没有其它的划分方式?
6. 目前的增量学习方法通常隐式地要求任务的性质差异或者domain shift不能太大,甚至假设所有类/样本都来自同一数据集,探索在真实场景中表现更稳健的算法可以从哪些角度研究?
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。