讲述:使用逻辑解释神经网络

Alexa Steinbrück / Better Images of AI / Explainable AI / 获得 CC-BY 4.0 许可 您会信任人工智能软件为您做出诊断吗?大多数人对这个问题的回答都是否定的。事实上,尽管人工智能和神经网络取得了重大进步,但它们的“黑匣子”性质是实现这一目标的重大障碍。

来源:ΑΙhub

Alexa Steinbrück / 更好的 AI 图像 / 可解释的 AI / CC-BY 4.0 许可

Alexa Steinbrück / 更好的 AI 图像 / 可解释的 AI / CC-BY 4.0 许可 Alexa Steinbrück 更好的 AI 图像 CC-BY 4.0 许可

您会信任人工智能软件为您做出诊断吗?大多数人对这个问题的回答都是否定的。事实上,尽管人工智能和神经网络取得了重大进步,但它们的“黑匣子”性质是我们信任的重大障碍。无法理解模型如何或为何得出结论,让许多人对其使用持怀疑态度,特别是在医疗保健、金融或法律系统等敏感领域。这就是可解释人工智能 (XAI) 发挥作用的地方,这是一个专注于解释人工智能模型预测的研究领域。

我们的论文通过开发一种可以直接转化为逻辑的新型神经网络为该领域做出了贡献。为什么是逻辑?从很小的时候起,我们就被教导使用逻辑语句进行推理。逻辑构成了人类解释决策、理解复杂问题和向他人传达推理的支柱。通过将逻辑嵌入到神经网络的结构中,我们的目标是使其预测以一种让人感觉直观和可信的方式进行解释。

我们的论文

之前的作品,如《逻辑解释网络》(Ciravegna 等人,2023 年)提出使用真值表以逻辑的形式提供解释。虽然这种方法在保留神经网络的能力和对其预测提供解释之间提供了良好的平衡,但它们的解释生成是事后完成的。这意味着解释是在通过识别输出和输入之间的逻辑关系对模型进行训练后得出的。因此,生成的逻辑解释可能与模型的行为并不完全一致。

TELL

图 1:近似 AND 和 OR 逻辑门的两个神经网络架构的图形表示

.

.

.

  • TELL 存储库
  • 这项工作