在决策树中,我们可以了解树结构的输出,还可以可视化决策树如何制定决策。因此,决策树具有可解释性(可以轻松解释其输出。)
我们像决策树一样在神经网络中具有可解释性吗?
1
最近的模型不可知框架是LIME模型。
—
Emre
在使用神经网络进行对象识别/分类的领域中,热图很流行以可视化/解释决策,例如在heatmapping.org中。提供了教程和交互式演示。
—
尼古拉斯·里布尔