生产中的可解释人工智能:用于实时欺诈检测的神经符号模型

SHAP 需要 30 毫秒来解释欺诈预测。该解释是随机的,在决策之后运行,并且需要您必须在推理时维护的背景数据集。本文对神经符号模型进行了基准测试,该模型在 Kaggle 信用卡欺诈数据集上作为前向传递本身的副产品,在 0.9 毫秒内生成确定性的、人类可读的解释。加速比为 33 倍。欺诈召回是相同的。 生产中的可解释人工智能:用于实时欺诈检测的神经符号模型首先出现在走向数据科学上。

来源:走向数据科学
  • SHAP KernelExplainer 每次预测大约需要 30 毫秒(即使背景很小)
  • 神经符号模型在 0.9 毫秒内生成前向传递内的解释
  • 这是 33 倍的加速,具有确定性输出
  • 欺诈召回率相同 (0.8469),仅 AUC 略有下降
  • 没有单独的解释器,没有随机性,没有额外的延迟成本
  • 所有代码都在 Kaggle 信用卡欺诈检测数据集 [1] 上运行
  • 完整代码:https://github.com/Emmimal/neuro-symbolic-xai-fraud/

    问题成为现实的那一刻

    一天深夜,我正在调试欺诈检测系统,想了解为什么该模型标记了特定交易。我调用 KernelExplainer,传入我的后台数据集,然后等待。三秒钟后,我得到了特征归因的条形图。我再次运行它来仔细检查一个值,得到的数字略有不同。

    那时我意识到解释的生成方式存在结构性限制。该模型是确定性的。解释不是。我正在用不一致的方法解释一致的决策,如果必须实时运行,则延迟和随机性都是不可接受的。

    本文介绍的是我所构建的内容、它的性能成本以及它的正确之处,包括一个令我惊讶的结果。

    如果不能立即且一致地产生解释,则它们不能用于实时欺诈系统。

    关键见解:可解释性不应该是后处理步骤。它应该是模型架构的一部分。

    实时设置中 SHAP 的限制

    这种近似对于模型调试、特征选择和事后分析非常有用。

    这里检查的限制较窄但很关键:在实时延迟限制下,必须在推理时生成解释,附加到各个预测。

    当您将 SHAP 附加到实时欺诈管道时,您正在运行一个近似算法:

  • 产生根据 nsamples 和随机状态变化的结果