可解释性范围

知识点概述

可解释性的范围定义了解释所针对的层面,从算法的透明度到对整个模型或单个预测的理解。根据范围的不同,我们可以将可解释性分为全局(Global)和局部(Local)等不同层次。

教材原文

算法训练产生预测模型,每个步骤都可以根据透明度 (Transparency) 或可解释性进行评估。 … 2.3.1 算法透明度2.3.2 全局、整体的模型可解释性2.3.3 模块层面上的全局模型可解释性2.3.4 单个预测的局部可解释性2.3.5 一组预测的局部可解释性

详细解释

可解释性的范围可以从宏观到微观分为以下几个层次:

1. 算法透明度 (Algorithm Transparency)

  • 层面: 关注学习算法本身是如何工作的。
  • 问题: 算法是如何从数据中学习模型的?它能学习到什么样的关系?
  • 例子: 理解线性回归使用最小二乘法来拟合数据,或者理解卷积神经网络在底层学习边缘检测器。
  • 说明: 这关注的是“学习过程”的透明度,而不是最终“学习结果”(即模型)的透明度。

2. 全局模型可解释性 (Global Model Interpretability)

  • 层面: 关注对整个训练好的模型行为的理解。
  • 问题: 训练好的模型如何进行预测?哪些特征最重要?特征之间有什么样的交互作用?
  • 细分:
    • 整体模型可解释性: 理想情况下,人类能够完全理解并内化整个模型的所有参数和结构。但这对于复杂模型(如参数众多的神经网络)来说几乎是不可能的。
    • 模块层面上的全局可解释性: 退而求其次,我们试图理解模型的某些部分或模块。例如,虽然我们无法想象一个高维的线性模型,但我们可以理解其中单个权重的含义(“在其他特征不变的情况下…”)。

3. 局部可解释性 (Local Interpretability)

  • 层面: 关注对模型在特定数据点或数据子集上的行为的理解。
  • 问题: 为什么模型对这一个特定的实例做出了这样的预测?
  • 细分:
    • 单个预测的局部可解释性: 解释为什么模型给一个实例打上了某个标签或预测了某个数值。例如,LIME和Shapley值就是典型的局部解释方法。
    • 一组预测的局部可解释性: 解释模型对一小组相似实例的行为。

学习要点

  • 理解可解释性具有不同的范围和层次,从宏观的算法层面到微观的单个预测层面。
  • 掌握全局可解释性局部可解释性的核心区别:全局解释关注模型的整体行为,而局部解释关注对单个预测的解释。
  • 认识到完全的、整体的模型可解释性对于复杂模型来说是一个难以实现的目标,因此我们常常依赖于模块层面或局部的解释。

关联知识点