1 博洛尼亚大学法律研究系,Via Zamboni, 27, 40126 Bologna, IT 2 牛津大学牛津互联网研究所,1 St Giles', Oxford, OX1 3JS, UK 3 艾伦图灵研究所,大英图书馆,96 Euston Rd, London NW1 2DB, UK *通信作者的电子邮件:luciano.floridi@oii.ox.ac.uk 摘要。问责制是人工智能 (AI) 治理的基石。然而,它通常被定义得不够精确,因为其多面性和人工智能系统的社会技术结构意味着人工智能问责制可以参考各种价值观、实践和措施。我们通过从可回答性的角度定义问责制来解决这种不明确性,确定三种可能性条件(权威认可、质询和权力限制),以及七个特征(背景、范围、代理、论坛、标准、流程和含义)的架构。我们通过四个问责目标(合规、报告、监督和执行)分析该架构。我们认为这些目标可以互补,政策制定者会根据问责制的使用和人工智能治理的使命来强调或优先考虑某些目标。1.简介 问责制是人工智能 (AI) 治理的基石之一。除其他原因外,这是因为将任务(例如预测或决策)委托给人工智能系统(以下称为 AI)。当前的人工智能政策,尤其是在欧洲背景下,承认了这一点: