可解释机器学习:黑盒模型可解释性理解指南
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

第1章 引言

本书介绍了如何使监督机器学习模型具有可解释性。虽然本书中包含一些数学公式,但是即使没有公式,你也能够理解这些方法背后的思想。本书不适合机器学习初学者阅读,如果不熟悉机器学习的基础知识,则可以学习其他图书和资源。关于机器学习的入门资料,推荐在线学习平台coursera.com 上的Hastie、Tibshirani 和Friedman[1] 合著的The Elements of Statistical Learning 和Andrew Ng 的机器学习课程。

目前,解释机器学习模型的新方法的论文在以惊人的速度发表,掌握所有已发表论文的内容非常不现实。这就是读者不会在本书中看到最新颖、最奇特的方法,而是看到机器学习可解释性的成熟方法和基本概念的原因。基础知识有助于理解使机器学习模型具有可解释性。在阅读本书之后,将基础知识消化还使你能够更好地理解和评估arxiv.org 上发表的有关可解释性的新论文。

本书以一些短篇小说作为开篇,这些短篇小说不是理解这本书所必需的,但希望它们能引起你的思考。然后,本书探讨了机器学习可解释性的概念,将讨论可解释性在何时重要,以及有哪些不同类型的解释。本书中使用的术语可以在第1.3 节中查找。所描述的大多数模型和方法都会使用第3 章中描述的真实数据集。使机器学习具有可解释性的一种方法是使用可解释的模型,例如线性模型或决策树。另一种选择是使用与模型无关的解释工具,这样就可以应用于任何监督机器学习模型。第5 章处理诸如部分依赖图和置换特征重要性之类的方法。与模型无关的方法是通过改变机器学习模型的输入并观察模型的输出变化来工作的。返回数据点作为解释的与模型无关的方法,将在第6 章进行讨论。所有与模型无关的方法都可以根据它们是在所有数据实例中解释全局模型行为还是单个实例预测来进一步区分。以下方法解释了模型的整体行为:部分依赖图(Partial Dependence Plot)、累积局部效应(Accumulated Local Effect)、特征交互(Feature Interaction)、置换特征重要性(Permutation Feature Importance)、全局代理模型(Global Surrogate Model)及原型和批评(Prototype and Criticism)。为了解释单个实例预测,有局部代理模型(Local Surrogate Model)、Shapley 值(Shapley Value)、反事实解释(Counterfactual Explanation)(密切相关:对抗样本)。可以使用一些方法解释全局模型行为和单个实例预测:个体条件期望(Individual Conditional Expectation)和有影响力的实例(Influential Instance)。