赞
踩
理解与解释模型
表征可视化是理解CNN模型的一种重要途径, 在图像领域应用广泛, 常见于图像分类、场景识别等任务的可视化解释.。表征可视化方法常用于对基于CNN的图像分类器的解释,例如AM方法用于可视化网络对输入图像的偏好, 从另一种角度揭示了网络对何种输入模式的依赖性较强。注意力掩码能够告诉设计者网络的关注点,这使其自身具有一定的可解释特性,因此基于注意力掩码的可视化方法不仅可以验证注意力机制自身的有效性, 也常用于观察网络的训练效果。
此外, 表征可视化方法也可以应用在其他类型的数据,例如CAM这类方法具有较好的类别区分性, 能够用来确定与特定输出类别相关联的图像区域, 可在视觉问答模型中帮助定位与问题最相关的图像区域。LRP方法在制定反向传播规则时依靠网络的权重与激活值,而非特征图和通道等图像领域的概念。因此它不仅适应于图像识别任务的解释, 还可以用于可视化机器翻译、语音识别等任务中, 为这些领域的研究者提供了另一种理解模型的途径。
诊断与优化网络
在CNN学习效果诊断和结构优化上, 基于反卷积的可视化能够观察任意层的神经元的激活, 从而分析 CNN的学习率、卷积核尺寸及步长等重要参数的设计是否达到最优。比如有学者使用基于反卷积的可视化方法对AlexNet内部激活进行分析与改进,进而提出了ZFNet, 获得了2013年ImageNet 数据集图像分类任务冠军。这种基于表征可视化的针对性分析和诊断方式, 很大程度上避免了盲目的参数调优。
其他方面
除了对CNN本身的理解与诊断, 可视化方法在其他任务上也有不断拓展与延伸, 例如CAM和Grad-CAM方法在弱监督目标定位任务上取得了非常好的效果。比如有学者进一步探索将显著性归因方法产生的显著图作为先验, 应用于弱监督的分割任务上。在应用领域方面,可视化方法能够提升对推荐系统决策结果的理解,以及与知识图谱的结合来实现可解释的推荐算法。对于自动驾驶以及智能医疗等领域, 由于这些领域对于决策风险的承受能力较低,可视化方法对这些领域应用的现实落地至关重要。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。