摘要: 首先,来到captum的github源码仓库 地址是:https://github.com/pytorch/captum captum是一个用pytorch写的,实现了很多深度学习可解释性方法的库。包括IntegratedGradients、Deeplift、GradientShap等。 阅读源码可 阅读全文
posted @ 2022-10-02 17:01 凌雪傲寒 阅读(1196) 评论(0) 推荐(0) 编辑
摘要: 首先,访问github上的LIME源码,https://github.com/marcotcr/lime ​ 将代码克隆至本地。我用的是pycharm打开进行阅读。下载下来后使用 pip install . ,别用pip install lime,使用后面的就不会使用源码中的Lime,阅读源码使用p 阅读全文
posted @ 2022-10-02 15:09 凌雪傲寒 阅读(157) 评论(0) 推荐(0) 编辑
摘要: 文章核心思想速读: 提出了一个LIME解释技术能够对任何分类器做出的预测进行解释。 L指LOCAL,意思是模型是针对局部某个样本的解释,而不是所有样本 I指:INTERPRETABLE,可解释性,能够让人类看懂 M指:MODEL-AGNOSTIC ,与特定模型无关,也就是将要解释的模型都看作一个黑盒 阅读全文
posted @ 2022-10-02 14:59 凌雪傲寒 阅读(180) 评论(0) 推荐(0) 编辑
摘要: 摘要 这篇文章主要研究的是如何将模型的预测归因到模型的输入上这个问题。 作者提出了两条归因方法应该满足的基本定理,敏感性(Sensitivity)和实现不变性(Implementation Invariance )。大多数的归因方法并没有满足这两条定理。作者基于这两条定理提出了一个新的方法名叫Int 阅读全文
posted @ 2022-10-02 14:57 凌雪傲寒 阅读(432) 评论(0) 推荐(0) 编辑