可解释的AI (XAI):如何使用LIME 和 SHAP更好地解释模型的预测
作为数据科学家或机器学习从业者,将可解释性集成到机器学习模型中可以帮助决策者和其他利益相关者有更多的可见性并可以让他们理解模型输出决策的解释。
在本文中,我将介绍两个可以帮助了解模型的决策过程的模型 LIME 和 SHAP。
SHAP
它是 SHapley Additive exPlanations的缩写。该方法旨在通过计算每个特征对预测的贡献来解释实例/观察的预测。
SHAP有许多用于模型解释的可视化图表,但我们将着重介绍其中的几个。
特征重要性的汇总图
特定分类结果的汇总图
LIME
它是 Local Interpretable Model Agnostic Explanation的缩写。局部(Local )意味着它可以用于解释机器学习模型的个别预测。
要使用它也非常的简单,只需要2个步骤:(1) 导入模块,(2) 使用训练值、特征和目标拟合解释器。
对单例进行解释说明
这里的解释是针对测试数据中的单个实例进行的
完整文章