Loading...
机构名称:
¥ 6.0

摘要 近年来人们对人工智能 (AI) 的热情主要归功于深度学习的进步。深度学习方法非常准确,但也不太透明,这限制了它们在安全关键型应用中的潜在应用。为了获得信任和问责,机器学习算法的设计者和操作者必须能够向用户、监管者和公民解释算法的内部工作原理、结果以及失败的原因。本文的独创性在于结合可解释性的技术、法律和经济方面,开发一个框架来定义给定环境下可解释性的“正确”水平。我们提出了三个逻辑步骤:首先,定义主要的背景因素,例如解释的受众是谁、操作背景、系统可能造​​成的危害程度以及法律/监管框架。此步骤将有助于描述解释的操作和法律需求,以及相应的社会效益。第二步,检查可用的技术工具,包括事后方法(输入扰动、显著性图……)和混合 AI 方法。第三步,根据前两个步骤,选择正确的全局和局部解释输出级别,同时考虑所涉及的成本。我们确定了七种成本,并强调只有当总社会效益超过成本时,解释才具有社会意义。

灵活且针对具体情境的 AI 可解释性

灵活且针对具体情境的 AI 可解释性PDF文件第1页

灵活且针对具体情境的 AI 可解释性PDF文件第2页

灵活且针对具体情境的 AI 可解释性PDF文件第3页

灵活且针对具体情境的 AI 可解释性PDF文件第4页

灵活且针对具体情境的 AI 可解释性PDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年
¥4.0
2024 年
¥16.0
2023 年
¥1.0