SHAP(Shapley附加说明)和LIME(本地可解释模型无关说明)之间的比较


20

我正在阅读有关两种流行的事后模型可解释性技术:LIMESHAP

我很难理解这两种技术的主要区别。

引述伦德伯格斯科特,SHAP背后的大脑:

SHAP值不仅具有LIME的黑匣子局部估计优势,而且还具有基于博弈论的一致性和局部准确性的理论保证(归因于我们统一的其他方法)

我很难理解这个“ 博弈论关于一致性和局部准确性理论保证 ”是什么。由于SHAP是在LIME之后开发的,因此我认为它填补了LIME无法解决的一些空白。那些是什么?

克里斯托夫·莫尔纳的在Shapley值估计一章规定:

预测和平均预测之间的差异在实例的特征值-Shapley效率属性之间公平分配。该属性将Shapley值与LIME等其他方法分开设置。LIME不保证完美分配效果。这可能会使Shapley值成为提供完整解释的唯一方法

读了这篇文章后,我感觉到SHAP不是本地的,而是数据点的glocal解释。我在这里可能是错误的,需要对以上引用的含义有一些了解。总结一下我的问题:LIME产生本地解释。SHAP的解释与LIME的解释有何不同?


2
不错的问题(+1),我会在有时间的时候尝试回答,但值得注意的是LIME不能提供全局一致的解释,而SHAP可以提供。而且,SHAP 肯定是在LIME之前开发的。SHAP很大程度上建立在Strumbelj&Kononenko从latE 00到10年代初的工作以及可转让的公用事业合作游戏的经济学研究上(例如Lipovetsky&Conklin(2001))。此外,灵敏度分析测量的许多工作(例如Sobol指数)也是如此。核心SHAP想法通常熟知之前,NIPS 2017年
usεr11852说恢复单胞菌

2
(关于我的第二部分,请澄清一下:我并不是在建议NIPS 2017论文是窃或类似的遥远产物。只是我经常看到人们无视先前许多关于在这种特殊情况下:算法博弈论作为AI的一部分已经存在了数十年,而现在却变得半凉爽。 )
usεr11852恢复单胞菌说,

1
@usεr11852等待您的答复。请为此做出您的想法。
user248884 '18

2
还没有所有必要的时间;我已经写了大约400个单词,但是它至少还需要6-7个小时的工作,因为我必须重新阅读一些论文并收紧我的文本-在不做过多简化的情况下解释SHAP有点挑战(至少对我而言)。可能我会在12月中旬之前完成... :)
us11r11说恢复Monic的时间为

1
@usεr11852好的。将会等待:)
user248884 '18

Answers:


8

LIME在您希望了解其预测的单位周围局部创建替代模型。因此,它本质上是局部的。匀称的值将最终预测“分解”为每个属性的贡献-这就是“一致”的含义(这些值累加为真实模型的实际预测,这不是LIME所能提供的)。但是,要真正获得匀称的值,必须决定如何处理/如何处理“遗漏”属性的值,这就是得出这些值的方式。在这个决定中,有一些选择可以改变解释。如果我“遗漏”属性,我是否会平均所有可能性?是否选择一些“基准”?

因此,Shapely实际上以附加的方式告诉您分数的获得方式,但是“起点”有一些选择(即有关省略属性的决定)。

LIME仅在局部意义上告诉您,有关数据点的最重要属性是什么。


您还可以补充每个模型如何得分(例如,shap得分)吗?我发现这些得分很烦人,因为它们没有标准化,我也​​不明白它们的含义!
user4581 '19
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.