Loading...
机构名称:
¥ 1.0

概述:人工智能 (AI) 技术在许多领域越来越重要 (Russell and Norvig, 2020)。与此同时,对已部署的 AI 系统的透明度的需求正在兴起,包括通过对 AI 决策的解释 (Goodman and Flaxman, 2017)。尽管围绕该主题的研究兴趣急剧增加 (Lipton, 2018),但可解释人工智能 (XAI) 尚无标准或普遍接受的定义。从广义上讲,XAI 可以理解为包括任何使 AI 系统的利益相关者能够理解和信任该系统的过程/工具/方法。AI 系统正在许多环境中开发和部署,而人们越来越期望 AI 系统能够自主运行 (Biran and Cotton, 2017)。机器学习 (ML) 尤其已用于各种任务,现在已渗透到日常生活中。利益相关者需要理解和信任 AI 系统的输出(例如建议或行动)现在是一个关键问题。相反,缺乏透明度和可解释性是进一步采用 AI 系统的主要障碍(Gunning 和 Aha,2019 年)。在许多情况下,AI 系统的建议和行动可能至关重要(例如在安全领域或医疗诊断中)。用户不仅需要知道输出,还需要知道给出该输出的原因(Tjoa

开发和试验 AI 系统中可解释性的方法

开发和试验 AI 系统中可解释性的方法PDF文件第1页

开发和试验 AI 系统中可解释性的方法PDF文件第2页

开发和试验 AI 系统中可解释性的方法PDF文件第3页

开发和试验 AI 系统中可解释性的方法PDF文件第4页

开发和试验 AI 系统中可解释性的方法PDF文件第5页

相关文件推荐

2009 年
¥3.0
2021 年
¥1.0
2015 年
¥8.0