文章名称
【Arxiv-2021】【University of Technology Sydney】Prototype-based Counterfactual Explanation for Causal Classification
核心要点
文章旨在解决现有(针对离散特征的)反事实解释方法存在的,1)丢失特征间因果关系,导致反事实样本不合理;2)生成反事实样本速度慢,需调节大量参数,融合多种损失两方面问题,提出了利用因果结构模型来保留反事实特征背后的因果关系,同时设计了一种基于多目标遗传算法的新型无梯度优化算法为连续和分类数据的混合类型生成反事实解释。
上一节讲解了文章研究问题的背景,作者进行反事实样本生成的思路以及一些反事实样本需要遵循的约束。本节继续介绍其他约束以及多目标损失函数和优化方法.
方法细节
问题引入
上一节讲述了为了生成反事实约束,需要优化几个目标(约束)。其中,首先要保证生成的反事实样本会被模型预测为期望的标签。此外,为了能减少模型在特征空间中(以为是调整特征值,来生成反事实)搜索的开销,加速反事实生成的过程。作者引入了所谓“class prototype”的概念。以“class prototype”为锚点,引导模型寻找可能的特征值修改策略,生成反事实样本。
上述目标都被作者融入多目标优化的损失函数中,另外还有Proximity Loss以及Causality-preserving Loss。
具体做法
如前所述,ProCE在反事实样本,要求模型遵循一些约束来反事实保证样本取值的合理性,加速反事实样本的生成速度。包括目标标签约束和原型约束。除此之外还有,
相近约束。反事实样本应尽可能接近原始观测样本,以便用户理解(跨度太大的样本之间很难做对比)。然而,样本同时具有离散和连续特征时,很难构造有效的损失函数进行反事实样本生成,并度量相近性。一般会利用指示变量表明反事实样本和观测样本的某个离散特征是否一致[Sharma et al., 2020]。但是这种标识符不能够反映距离的远近,无法优化。作者利用原型约束中的嵌入函数,把离散特征变成稠密向量来度量距离的远近,具体公式表示如下图所示。
proximity loss
值得注意的是,采用嵌入函数的好处是能够捕获每个分类值之间的潜在关系,不需要通过特征工程为每个类别分配权重。
因果关系保留约束。上述约束都不能保持特征之间的因果关系。因此,作者基于结构因果模型(SEM)[Pearl, 2009],构建了因果损失函数来保持生成样本中特征的因果关系。作者假设可以得到与反事实生成业务相关的因果结构模型。对于每一个内生变量(是因果图的节点,表示某一个特征),其值由因果结构方程确定。其中,表示的所有父节点。回到反事实生成场景,特征的proximity Loss的计算公式如下图所示。
Causality-preserving Loss of endogenous variables因此,所有特征的causality-preserving loss如下图所示。其中,分别表示所有外生节点和单个外生节点(特征)。
Final Causality-preserving Loss
最终,作者将所有损失汇集在一起形成如下图所示的多目标,并直接采用改进的NSGA-II[Deb et al., 2000]求解,而绕开了费时费力的目标权重调节(时间花在了求解运算上)。
Multi-objective Optimization作者改进的NSGA-II的具体细节参见代码实现部分的伪代码。作者首先找到与原始实例最接近的类原型,用来计算后续的原型损失。随后,通过高斯分布初始化一个随机的候选种群,为每个候选解计算上述损失, 。再按照非支配解[Deb et al., 2002]排序方法,为每一个候选解分配Pareto Front[Ngatchou et al., 2005]。从分配后的候选集中选择候选解。重复该过程,直到所有解决方案都分配到一个Pareto Front(具体细节和定义可以参考原文)。
到此为止,我们得到一个候选解种群。对每一个候选解计算crowding distance [Raquel and Naval Jr, 2005]来保证多样性。只有排名靠前的一半候选解被保留并进行cross-over和mutation操作。最终,最优的反事实样本被作为最终解返回。
Crowding Distance代码实现
文章的伪代码如下图所示。
pseudo code心得体会
特征因果关系保留
作者计算proximity loss的时候引入SEM来强调因果性,是该方法的一大亮点,不过也需要更多的领域知识,并且应该是需要全部的因果图。在因果可解释综述中介绍过,假设全部因果图已知是不太现实的。因此,该方法可能比较难实际应用。
反事实生成与多样性
作者采用crowding distance保证多样性,其实是利用了样本点的密度,高密度的点更容易被生成出来,因此低密度的则更可能是多样的。有一个地方可以稍作调整,来保证其他特性,例如哪些特征不能变化,特征的取值范围再什么范围内等。
文章引用
[Sharma et al., 2020] Shubham Sharma, Jette Henderson, and Joydeep Ghosh. Certifai: A common framework to provide explanations and analyse the fairness and ro- bustness of black-box models. In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, pages 166–172, 2020.
[Pearl, 2009] Judea Pearl. Causal inference in statistics: An overview. Statistics Surveys, 3:96–146, 01 2009.
[Deb et al., 2000] Kalyanmoy Deb, Samir Agrawal, Am- rit Pratap, and Tanaka Meyarivan. A fast elitist non- dominated sorting genetic algorithm for multi-objective optimization: Nsga-ii. In International conference on parallel problem solving from nature, pages 849–858. Springer, 2000.
[Deb et al., 2002] Kalyanmoy Deb, Amrit Pratap, Sameer Agarwal, and TAMT Meyarivan. A fast and elitist mul- tiobjective genetic algorithm: Nsga-ii. IEEE transactions on evolutionary computation, 6(2):182–197, 2002.
[Ngatchou et al., 2005] Patrick Ngatchou, Anahita Zarei, and A El-Sharkawi. Pareto multi objective optimization. In Proceedings of the 13th International Conference on, Intelligent Systems Application to Power Systems, pages 84–91. IEEE, 2005.
[Raquel and Naval Jr, 2005] Carlo R Raquel and Prospero C Naval Jr. An effective use of crowding distance in mul- tiobjective particle swarm optimization. In Proceedings of the 7th annual conference on Genetic and evolutionary computation, pages 257–264, 2005.
网友评论