我正在阅读有关两种流行的事后模型可解释性技术:LIME和SHAP
我很难理解这两种技术的主要区别。
要引述伦德伯格斯科特,SHAP背后的大脑:
SHAP值不仅具有LIME的黑匣子局部估计优势,而且还具有基于博弈论的一致性和局部准确性的理论保证(归因于我们统一的其他方法)
我很难理解这个“ 博弈论关于一致性和局部准确性的理论保证 ”是什么。由于SHAP是在LIME之后开发的,因此我认为它填补了LIME无法解决的一些空白。那些是什么?
克里斯托夫·莫尔纳的书在Shapley值估计一章规定:
预测和平均预测之间的差异在实例的特征值-Shapley效率属性之间公平分配。该属性将Shapley值与LIME等其他方法分开设置。LIME不保证完美分配效果。这可能会使Shapley值成为提供完整解释的唯一方法
读了这篇文章后,我感觉到SHAP不是本地的,而是数据点的glocal解释。我在这里可能是错误的,需要对以上引用的含义有一些了解。总结一下我的问题:LIME产生本地解释。SHAP的解释与LIME的解释有何不同?
2
不错的问题(+1),我会在有时间的时候尝试回答,但值得注意的是LIME不能提供全局一致的解释,而SHAP可以提供。而且,SHAP 肯定是在LIME之前开发的。SHAP很大程度上建立在Strumbelj&Kononenko从latE 00到10年代初的工作以及可转让的公用事业合作游戏的经济学研究上(例如Lipovetsky&Conklin(2001))。此外,灵敏度分析测量的许多工作(例如Sobol指数)也是如此。核心SHAP想法通常熟知之前,NIPS 2017年
—
usεr11852说恢复单胞菌
(关于我的第二部分,请澄清一下:我并不是在建议NIPS 2017论文是窃或类似的遥远产物。只是我经常看到人们无视先前许多关于在这种特殊情况下:算法博弈论作为AI的一部分已经存在了数十年,而现在却变得半凉爽。 )
—
usεr11852恢复单胞菌说,
@usεr11852等待您的答复。请为此做出您的想法。
—
user248884 '18
还没有所有必要的时间;我已经写了大约400个单词,但是它至少还需要6-7个小时的工作,因为我必须重新阅读一些论文并收紧我的文本-在不做过多简化的情况下解释SHAP有点挑战(至少对我而言)。可能我会在12月中旬之前完成... :)
—
us11r11说恢复Monic的时间为
@usεr11852好的。将会等待:)
—
user248884 '18