点击购买,资源将自动在新窗口打开.
获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
可解释人工智能 (XAI) 领域的最新研究试图通过分而治之的策略使不透明的 AI 系统变得易于理解。然而,这无法阐明经过训练的 AI 系统作为一个整体是如何工作的。然而,正是这种功能性理解才是满足安全等重要社会需求所必需的。为了解决这种情况,我们认为,AI 研究人员应该寻求机械可解释性,即应用生命科学中熟悉的协调发现策略来揭示复杂 AI 系统的功能组织。此外,理论家在描述 XAI 研究时应该考虑到此类策略的独特成本和收益。
主要关键词