kaggle关键词检索结果

生产中的可解释人工智能:用于实时欺诈检测的神经符号模型

Explainable AI in Production: A Neuro-Symbolic Model for Real-Time Fraud Detection

SHAP 需要 30 毫秒来解释欺诈预测。该解释是随机的,在决策之后运行,并且需要您必须在推理时维护的背景数据集。本文对神经符号模型进行了基准测试,该模型在 Kaggle 信用卡欺诈数据集上作为前向传递本身的副产品,在 0.9 毫秒内生成确定性的、人类可读的解释。加速比为 33 倍。欺诈召回是相同的。 生产中的可解释人工智能:用于实时欺诈检测的神经符号模型首先出现在走向数据科学上。

神经网络如何学习自己的欺诈规则:神经符号人工智能实验

How a Neural Network Learned Its Own Fraud Rules: A Neuro-Symbolic AI Experiment

大多数神经符号系统都会注入人类编写的规则。但如果神经网络本身能够发现这些规则呢?在本实验中,我使用可微规则学习模块扩展了混合神经网络,该模块在训练期间自动提取 IF-THEN 欺诈规则。在 Kaggle 信用卡欺诈数据集(欺诈率为 0.17%)上,该模型学习了可解释的规则,例如:神经网络如何学习其自己的欺诈规则:神经符号 AI 实验首先出现在《走向数据科学》上。