赞
踩
Paper:可解释性之SHAP之《A Unified Approach to Interpreting Model Predictions—解释模型预测的统一方法》论文解读与翻译
导读:2017年11月25日,来自华盛顿大学的Scott M. Lundberg和Su-In Lee在《解释模型预测的统一方法》论文中,提出了SHAP值作为特征重要性的统一度量。SHAP可以为每个特征分配一个特定预测的重要性值。它的意义在于解释现代机器学习中大多数的黑盒模型,为效果好的ML模型量化各个特征的贡献度。
目录
《A Unified Approach to Interpreting Model Predictions》论文解读与翻译
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。