在人工智能 (AI) 将在社会中扮演越来越重要角色的时代,保持一定程度的人类对 AI 系统的控制至关重要。可解释性(广义上定义为对 AI 系统如何运作和做出决策的理解或解释水平)是这种人类控制的核心组成部分。然而,学术界、伦理学家和立法者迄今为止未能就 AI 领域的可解释性监管单一策略达成一致。这份由我们的欧洲智库编写的政策简报综合了学术见解和国际监管方法,为美国政策制定者提出了可实施的建议。我们的目标是在道德要求和实际考虑之间取得平衡,确保 AI 技术的透明度、问责制和社会信任。在研究了当前对“白盒”和“黑盒”人工智能系统中透明度概念的理解之后,本文分析了组织和国家如何寻求定义和规范人工智能的可解释性,特别关注欧盟、中国和美国。经过分析,出现了三种主要的政策策略,并考虑了它们的优势和局限性。受欧盟近期监管努力的启发,本文建议对人工智能的可解释性采取一种平衡的方法,即根据风险水平规范人工智能治理,承认技术限制,同时确保问责制和透明度。我们提出了美国国会在制定人工智能立法时应考虑的四项关键政策策略: