Loading...
机构名称:
¥ 1.0

如今,人工智能 (AI) 对我们的生活有着无处不在的影响。这涉及产品推荐、风险评估和对人们生存至关重要的系统,例如医疗诊断系统。特别是当系统做出如此关键的决策时,就会出现一个问题:为什么以及如何做出特定的决策 [3]。问题在于,此类系统的许多底层算法对用户来说都是黑匣子,因此缺乏透明度 [1]。这是可解释人工智能 (XAI) 研究领域的驱动力。它提供了一组可用于描述机器学习 (ML) 模型行为的方法,从而提供了一定程度的透明度 [1]。当前的研究重点是开发新的、大多是孤立的 XAI 方法,例如代理模型、部分依赖图或累积局部效应,而不是真正构成向用户解释模型行为的良好整体方法 [10]。研究问题是,如何利用这些方法的结果来回答人类对机器学习决策的疑问?这篇尚未完成的论文介绍了一种新的可解释人工智能系统 ERIC,这是一种基于规则的、交互式和对话式的可解释人工智能代理。ERIC 将最流行的可解释人工智能方法应用于机器学习模型,以提取存储在基于规则的系统中的知识。潜在用户可以通过类似聊天的对话界面与 ERIC 交流,并获得有关机器学习模型推理行为的适当解释。该系统专门针对领域专家,旨在提供日常解释。它结合了人工智能、人机交互和社会科学等研究领域的见解 [12]。除了现有的相关对话系统(例如用于执行数据科学任务的 Iris 代理 [2] 或用于解释情境感知应用程序的 LAKSA 代理 [8])之外,ERIC 还专注于机器学习模型的解释。

通过基于规则的交互式对话实现可解释的人工智能

通过基于规则的交互式对话实现可解释的人工智能PDF文件第1页

通过基于规则的交互式对话实现可解释的人工智能PDF文件第2页