1
SHAP(Shapley附加说明)和LIME(本地可解释模型无关说明)之间的比较
我正在阅读有关两种流行的事后模型可解释性技术:LIME和SHAP 我很难理解这两种技术的主要区别。 要引述伦德伯格斯科特,SHAP背后的大脑: SHAP值不仅具有LIME的黑匣子局部估计优势,而且还具有基于博弈论的一致性和局部准确性的理论保证(归因于我们统一的其他方法) 我很难理解这个“ 博弈论关于一致性和局部准确性的理论保证 ”是什么。由于SHAP是在LIME之后开发的,因此我认为它填补了LIME无法解决的一些空白。那些是什么? 克里斯托夫·莫尔纳的书在Shapley值估计一章规定: 预测和平均预测之间的差异在实例的特征值-Shapley效率属性之间公平分配。该属性将Shapley值与LIME等其他方法分开设置。LIME不保证完美分配效果。这可能会使Shapley值成为提供完整解释的唯一方法 读了这篇文章后,我感觉到SHAP不是本地的,而是数据点的glocal解释。我在这里可能是错误的,需要对以上引用的含义有一些了解。总结一下我的问题:LIME产生本地解释。SHAP的解释与LIME的解释有何不同?