赞
踩
标题: 数据驱动和知识感知可解释人工智能综述
作者: Xiao-Hui Li , Caleb Chen Cao, Yuhan Shi, Wei Bai, Han Gao, Luyu Qiu, Cong Wang, Yuanyuan Gao,Shenjia Zhang, Xun Xue, and Lei Chen.
虽然人工智能(AI)在近些年来有着飞速发展。但解释AI并不是一件容易的事情。为此,提出这项了调查,从数据和知识工程(DKE)的角度对现有的工作进行分类:首先,将方法分为数据驱动方法和知识感知方法,其中数据驱动方法的解释来自与任务相关的数据,而知识感知方法则包含外部知识;此外,根据实践,本文提供了最先进的评估指标调查,并在工业实践中部署了解释应用程序
关键词——可解释人工智能(XAI)、算法、深度学习、知识库、指标
人工智能(AI)技术:
以机器学习为动力,在许多应用领域有着跨时代性的作用。随着时代的发展,AI在实际应用中展现出如下的优缺点:
优点:
●AI在“计算机视觉(CV)”取得了极大的进步,例如:ImageNet图像分类挑战等;
●AI在和“深度学习(DL)”取得了极大的进步,例如:COCO目标检测挑战,“视觉问答”和“机器翻译”等。
缺点:
◆AI模型大多建立在极其复杂的非线性函数上,如深度神经网络(DNNs),通常包含数百万个参数;
◆这些高度非线性和复杂性的模型使其成为“黑盒”——即人类难以理解其内部的工作机制和决策过程。进而导致人类难以判断其决策是否正确。
可解释人工智能(XAI):
因此,在过去的几年中,XAI已成为学术界的一个重要和热门的研究方向,主要分为三种:
(i) 方法论——开发更优越的方法来解释黑箱模型;
(ii)评估——设计评估解释有效性的方法或定义衡量标准;
(iii)应用–在实际任务中应用XAI。
虽然对XAI的评估至关重要,但只有少数调查对评估方法进行了审查。根据人和任务,将评估方法分为三种类型,即应用全面评估、基于人的评估和基于功能的评估。此外,还提出了一些属性(如可理解性、简洁性、完整性),这些属性可能是评估过程中的重要指标。XAI的应用仍处于初级阶段,然而,有几项调查展示了不同社会场景下的玩具示例,例如运输、销售、财务、人力资源和健康。还提到使用一种或多种XAI方法的软件。
定义:不依赖先验知识等外部信息,仅从数据中生成解释的方法。
常用方法:
定义:
利用外部领域知识,不仅可以生成指示特征重要性的解释,还可以描述某些特征比其他特征更重要的原因。
分类:
问题:
1.解释得有多好?
2.我们是否能够建立对黑箱模型的忠实理解?
3.我们是否能够信任它们?
定义:
在用户与机器之间的信赖关系确认前,用户需要验证解释的有效性。为此,人们开发出了各种评估解释的指标。介于使用情况的多样性,不同的指标有着不同的目的。
分类:
本文主要从以下三个方面对XAI进行说明:
(i) 方法论 Methodology:基于解释生成过程中是否涉及外部知识,我们提出了一种新的分类法。;
(ii)评估 Ealuation:共有两种分类:计算指标和认知指标;
(iii)应用 Aplication:其实际应用,要通过对于措施的合理解释让人们更加信任XAI。
从本文不难得出,解释过程有多种生成方式,也可以通过局部或者全局方法来生成不同的解释,使其实际使用变得更加灵活;与此同时,对于解释的评估更是用上了认知指标,这也表明了今后的解释不一定就是硬性的,也可以变得更加人性,增强了解释的可信度并更加易于理解。这对于用户来说是一件很不错的事情。
首先,对于具有知识意识的XAI来说仍有着十分大的扩展空间。然而,要有效利用外部知识,还有许多未解决的问题。就以人类参与为例,人们总会有着不同领域的各种知识,因此,XAI系统需要引导此人提供所需的知识,而不是无关的知识。
此外,部署XAI系统迫切需要更标准和统一的评估框架。为了达成这一目标,我们可能需要同时利用不同的指标,相互补充。在实际应用时对于不同任务会有着不同的指标,所以统一的评价框架应具有相应的灵活性。
最后,我们相信多学科合作将是有益的。也正是如此,才能让XAI在各个领域都能够灵活运用,来帮助人们做出最好的选择。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。