Questions tagged «model-interpretation»

1
SHAP(Shapley附加说明)和LIME(本地可解释模型无关说明)之间的比较
我正在阅读有关两种流行的事后模型可解释性技术:LIME和SHAP 我很难理解这两种技术的主要区别。 要引述伦德伯格斯科特,SHAP背后的大脑: SHAP值不仅具有LIME的黑匣子局部估计优势,而且还具有基于博弈论的一致性和局部准确性的理论保证(归因于我们统一的其他方法) 我很难理解这个“ 博弈论关于一致性和局部准确性的理论保证 ”是什么。由于SHAP是在LIME之后开发的,因此我认为它填补了LIME无法解决的一些空白。那些是什么? 克里斯托夫·莫尔纳的书在Shapley值估计一章规定: 预测和平均预测之间的差异在实例的特征值-Shapley效率属性之间公平分配。该属性将Shapley值与LIME等其他方法分开设置。LIME不保证完美分配效果。这可能会使Shapley值成为提供完整解释的唯一方法 读了这篇文章后,我感觉到SHAP不是本地的,而是数据点的glocal解释。我在这里可能是错误的,需要对以上引用的含义有一些了解。总结一下我的问题:LIME产生本地解释。SHAP的解释与LIME的解释有何不同?

4
如果我想要一个可解释的模型,除了线性回归之外还有其他方法吗?
我遇到了一些统计学家,他们从未使用线性回归以外的模型进行预测,因为他们认为诸如随机森林或梯度增强之类的“ ML模型”很难解释或“无法解释”。 在线性回归中,假设已验证一组假设(误差的正态性,同方差,无多重共线性),则t检验提供了一种检验变量重要性的方法,据我所知随机森林或梯度增强模型。 因此,我的问题是,是否要使用一组自变量来建模因变量,为了便于解释,我是否应该始终使用线性回归?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.