可解释人工智能explainable artificial intelligence (XAI) 领域,旨在为当今强大但不透明的深度学习模型,带来更多透明度。虽然,局部可解释人工智能XAI方法,以属性图的形式解释个体预测,从而识别重要特征出现的“位置”(但不提供关于代表“什么”的信息),但全局解释技术,可视化模型通常学习编码的概念。因此,这两种类型的方法,都只提供了部分见解,并将解释模型推理的任务留给了用户。
近日,德国 弗劳恩霍夫·海因里希·赫兹研究所 (Fraunhofer Heinrich Hertz Institute)Reduan Achtibat, Maximilian Dreyer,Wojciech Samek & Sebastian Lapuschkin等,在Nature Machine Intelligence上发文,报道了概念相关性传播Concept Relevance Propagation (CRP)方法,结合了局部和全局视角,因此可以回答个人预测的“在哪里”和“什么”问题。研究表明,在各种情况下,该项方法的能力,还展示了概念相关性传播CRP产生了更多的人类可解释说明,并通过概念图谱、概念组合分析和概念子空间的定量研究,及其在细粒度决策中的作用,提供了对模型表示和推理的深刻见解。From attribution maps to human-understandable explanations through Concept Relevance Propagation. 图1: 全局可解释人工智能explainable artificial intelligence,XAI:基于统一局部和全局XAI,判断存在哪些特征以及如何使用这些特征进行预测。
图2:简要概述方法贡献。
图3:基于概念相关性传播Concept Relevance Propagation,CRP,理解概念和概念合成。
图4:从概念级解释到模型和数据调试。
图5:概念相似性与细粒度决策分析。
Achtibat, R., Dreyer, M., Eisenbraun, I. et al. From attribution maps to human-understandable explanations through Concept Relevance Propagation. Nat Mach Intell 5, 1006–1019 (2023). https://doi.org/10.1038/s42256-023-00711-8https://www.nature.com/articles/s42256-023-00711-8声明:仅代表译者个人观点,小编水平有限,如有不当之处,请在下方留言指正!