详细内容或原文请订阅后点击阅览
生产中的可解释人工智能:用于实时欺诈检测的神经符号模型
SHAP 需要 30 毫秒来解释欺诈预测。该解释是随机的,在决策之后运行,并且需要您必须在推理时维护的背景数据集。本文对神经符号模型进行了基准测试,该模型在 Kaggle 信用卡欺诈数据集上作为前向传递本身的副产品,在 0.9 毫秒内生成确定性的、人类可读的解释。加速比为 33 倍。欺诈召回是相同的。 生产中的可解释人工智能:用于实时欺诈检测的神经符号模型首先出现在走向数据科学上。
来源:走向数据科学完整代码:https://github.com/Emmimal/neuro-symbolic-xai-fraud/
问题成为现实的那一刻
一天深夜,我正在调试欺诈检测系统,想了解为什么该模型标记了特定交易。我调用 KernelExplainer,传入我的后台数据集,然后等待。三秒钟后,我得到了特征归因的条形图。我再次运行它来仔细检查一个值,得到的数字略有不同。
那时我意识到解释的生成方式存在结构性限制。该模型是确定性的。解释不是。我正在用不一致的方法解释一致的决策,如果必须实时运行,则延迟和随机性都是不可接受的。
本文介绍的是我所构建的内容、它的性能成本以及它的正确之处,包括一个令我惊讶的结果。
如果不能立即且一致地产生解释,则它们不能用于实时欺诈系统。
关键见解:可解释性不应该是后处理步骤。它应该是模型架构的一部分。
实时设置中 SHAP 的限制
这种近似对于模型调试、特征选择和事后分析非常有用。
这里检查的限制较窄但很关键:在实时延迟限制下,必须在推理时生成解释,附加到各个预测。
当您将 SHAP 附加到实时欺诈管道时,您正在运行一个近似算法:
