Loading...
机构名称:
¥ 1.0

摘要。可解释人工智能 (XAI) 的理论、框架和工具的开发是当今非常活跃的研究领域,阐明任何形式的愿景和挑战的连贯性本身就是一项挑战。至少出现了两个有时互补且相互冲突的线索。第一个重点是开发实用工具,以提高自动学习的预测模型的透明度,例如通过深度学习或强化学习。第二个旨在预测不透明模型的负面影响,希望规范或控制错误预测的影响后果,特别是在医学和法律等敏感领域。制定使用领域知识增强预测模型构建的方法可以为产生人类可理解的预测解释提供支持。这与人工智能监管问题同时存在,例如欧盟《通用数据保护条例》,该条例为自动或半自动决策的解释制定了标准。尽管所有这些研究活动都越来越认识到可解释性主题至关重要,但重要的是要记住,它也是计算机科学最古老的领域之一。事实上,早期的人工智能是可追溯的、可解释的,因此人类可以理解和解释。这项研究的目标是阐明宏观思想及其在推进 XAI 系统发展中的作用,承认它们的历史根源,并强调前进的最大挑战。

可解释的人工智能:概念、应用、研究挑战和愿景

可解释的人工智能:概念、应用、研究挑战和愿景PDF文件第1页

可解释的人工智能:概念、应用、研究挑战和愿景PDF文件第2页

可解释的人工智能:概念、应用、研究挑战和愿景PDF文件第3页

可解释的人工智能:概念、应用、研究挑战和愿景PDF文件第4页

可解释的人工智能:概念、应用、研究挑战和愿景PDF文件第5页

相关文件推荐