赞
踩
可解释推荐尝试开发一种不仅生成高质量的推荐,而且生成直观的解释的模型。解释可以是事后的,也可以直接来自可解释的模型(在某些上下文中也称为可解释的或透明的模型)。可解释推荐尝试解决为什么的问题:通过向用户或系统设计人员提供解释,它帮助human理解为什么算法推荐某些物品,而human既可以是用户,也可以是系统设计人员。可解释推荐有助于提高推荐系统的透明度、说服力、有效性、可信度和满意度。它还有助于系统设计者更好地进行系统调试。近年来,人们提出了大量可解释的推荐方法,尤其是基于模型的推荐方法,并在实际系统中得到了应用。
在这篇survey中,我们回顾了在2019年或之前发表的可解释推荐论文。我们首先通过将推荐问题划分为5W(what, when, who, where, and why)来强调可解释推荐在推荐系统研究中的地位。然后,我们从三个角度对可解释推荐进行了全面的调查:
我们还专门用一节来讨论更广泛的IR和AI/ML研究中的解释视角。最后,我们讨论了未来可解释推荐研究领域的发展方向。
可解释推荐是指解决推荐原因问题的个性化推荐算法——它们不仅向用户或系统设计者提供推荐结果,而且还提供解释以阐明推荐原因。这样有助于提高推荐系统的透明度、说服力、有效性、可信度和用户满意度。它还有助于系统设计人员诊断、调试和改进推荐算法。
为了突出可解释推荐在整个推荐系统研究领域中的地位,我们对个性化推荐进行了广义的概念分类。具体来说,个性化推荐的研究可以分为5W问题——when, where, who, what, and why,对应着time-aware recommendation (when), location-based recommendation (where), social recommendation (who), application-aware recommendation (what), and explainable recommendation (why)。可解释推荐旨在回答推荐系统中的why-type问题。
可解释的推荐可以是推荐模型的内在组成,也可以是推荐模型未知的。模型内在方法( model-intrinsic approach)建立了可解释的模型,其决策机制是透明的,因此,我们可以很自然地为模型决策提供解释。与模型无关的方法( model-agnostic approach),或者有时称为事后解释方法(post-hoc explanation approach),允许决策机制是黑箱。它单独开发了一个解释模型,以便在做出决策后生成解释。这两种方法的理念都深深植根于我们对人类认知心理学的理解——有时我们通过仔细、理性的推理做出决定,我们可以解释为什么我们会做出这些决定;其他时候,我们先做决定,然后为这些决定寻找理由来支持或证明我们自己。
可解释推荐的范围不仅包括开发透明的机器学习、信息检索或数据挖掘模型。它还包括开发那些向用户或系统设计人员提供推荐或解释的有效方法。因为可解释推荐中必然涉及到human。用户行为分析和人机交互领域的重要研究工作旨在了解用户如何与解释进行交互。
在本章中,我们不仅将介绍可解释推荐涉及的问题,而且还将介绍整个推荐研究领域的概况。它将帮助读者理解可解释的推荐问题的独特之处,可解释的推荐在研究领域中的地位,以及为什么可解释的推荐对该领域很重要。
这一部分将对前人的研究做一个综述概览。虽然说“可解释性推荐”在2014年被提出来的,但是它的概念可以追溯到很早之前的个性化推荐研究中去。比如,Schafer 1999年提出的在推荐系统中要向用户解释所推荐产品的类别,如“您正在看的这个商品和您之前看过的产品相似”,这是基于物品的协同过滤核心思想。Herlocker在2000年时的研究:利用MovieLens数据集对协同过滤算法进行解释。
早期的个性化推荐多数是基于内容推荐或协同过滤(content-based recommendation or collaborative-filtering).基于内容的推荐通过对用户或者商品的属性信息进行建模,比如:价格,颜色,商品商标。因为物品的内容信息对于用户来说更容易理解,因此基于内容推荐时可以直接的向用户解释为什么要从众多的候选物品里面推荐这个物品给用户。最直接的方法:给用户解释所推荐的这个物品是他所感兴趣的。
2012年,Ferwerda对基于内容的推荐进行了一个全面详尽的研究。基于内容推荐,收集各个应用方面的内容信息是非常耗时的,2011年Ekstrand 提出协同过滤方法,通过群体的智慧来克服这个困难。最早期的CF是基于用户的,2001年Sarwar提出基于物品的CF,Linden在2003年时将Item-CF应用到了亚马逊商品推荐上。对于用户来说,基于item-CF和user-CF预测评分比较难理解,但是可以从哲学方面来理解。比如,基于user-CF的推荐,可以解释为“推荐的是和您相似的用户喜欢的物品”,基于item-CF可以解释为“推荐的是和您之前感兴趣的物品相似的物品”,虽然协同过滤对推荐系统的准确率提升有很大的提高,但是对与很多基于内容的推荐的算法解释性不够直观。
2008年Koren提出了 LFM隐语义模型,包括基于CF的矩阵分解方法使得推荐系统在评分预测上取得了成功,但是也有不足的地方,LFM预测出的结果很难理解为什么这个物品要比其他的物品要更好,即推荐的可解释性不好,用户理解不到为什么该物品预测的评分高,所以就推荐这个物品?
为了让个性化推荐能够直观的可理解,研究者门转向研究可解释性的推荐模型,这个模型不仅仅要进行推荐列表的生成,还需要对推荐列表进行解释的工作。如2013年Leskovec提出的LDA(latent dirichlet allocation)隐狄利克雷分配模型,一种文档主题生成模型,2014年zhang正式的定义了“可解释性推荐”,通过将潜在维度与可解释性推荐的显式产品特征进行对齐,提出了显式因子模型EFM(explicit factor model)。值得一提的是近几年深度学习对个性化推荐的性能有所提升,但是由于深度模型的黑盒特性,使得推荐模型的可解释性有一定困难。
从更广泛的意义上来说,近年来,在Greater-AI研究领域的研究者们也意识到ExpainableAI的重要性,在深度学习,计算机视觉,自动驾驶,自然语言处理等任务中都需要解决Expainable AI这个task。推荐系统作为AI研究的一个重要的分支,需要解决各种推荐系统的可解释性任务,为开发和研究新的可解释机器学习算法和理论提供了合适的背景。
在本研究中,我们提供了一个现有可解释推荐方法的分类范例,以帮助读者了解可解释推荐研究的最新进展。
具体来说,我们用两个正交维度对现有的可解释推荐研究进行分类:
有了这种分类法,两个维度的每个组合都指向可解释的推荐研究的特定子方向。我们应该注意到“解释如何呈现(显示样式)”和“用于解释的信息类型(信息来源)”之间可能存在概念上的差异。然而,在可解释推荐的上下文中,这两个原则是紧密相关的,因为信息的类型通常决定了解释的显示方式。因此,我们将这两个原则合并为一个单一的分类维度。(在可能存在的许多分类分类法中,这只是我们认为适合组织可解释推荐研究的一个分类法,因为它同时考虑了可解释推荐研究的HCI和ML观点)
表1.1展示了具代表性的可解释的推荐研究是如何被划分为不同的类别的。每个“model-information” 格子中,只展示一项具代表性的工作。基于上面分的两个维度,本文通过第2、3章分别详细的阐述。
可解释性和有效性被认为是模型设计中两个相互冲突的目标,我们必须权衡——我们可以选择一个简单的模型来获得更好的可解释性,或者选择一个复杂的模型来获得更好的准确性,同时将牺牲可解释性。
然而,最近的证据表明,在设计推荐模型时,这两个目标不一定相互冲突(Bilgic et al., 2004; Zhang et al., 2014a)。例如,最先进的技术如深度表示学习方法,可以帮助我们设计既有效又可解释的推荐模型。开发可解释的深度模型在更广泛的AI领域中也是一个具有吸引力的方向,这不仅推动了可解释推荐研究的进展,也推动了可解释机器学习问题的基本原理的进展。
在下面的章节中,当我们介绍每个可解释的推荐模型时,我们还将讨论个性化推荐的可解释性和有效性之间的关系。
下篇链接:翻译_第二章:《Explainable Recommendation: A Survey and New Perspectives》可解释推荐系统综述
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。