执行摘要:近年来,私营公司、研究机构和公共部门组织已发布了有关人工智能 (AI) 道德使用的原则、指南和其他软法律文书。然而,尽管人们显然一致认为人工智能应该是“合乎道德的”,但对于什么是“合乎道德的人工智能”,以及实现人工智能需要哪些道德要求、技术标准和最佳实践,仍存在争议。本报告旨在绘制全球政府和非政府组织制定的相关软法律文件和其他道德法律框架,目的有两个。首先,我们希望监测这一不断发展的非强制性治理工具。其次,我们希望前瞻性地评估人工智能对道德原则、人权、法治和民主的影响。该报告采用了经过改编和预先验证的范围审查协议,以提供当前软法律工作的全面和最新概述。我们审查了政府机构、非政府组织、学术机构和私营公司等发布的总共 116 份文件。我们的分析确定了五个突出的道德原则集群,并评估了它们在当前治理话语中的作用。从反面来看,我们的分析揭示了当前软法领域中存在的盲点和解释差距。此外,我们建立了道德原则与人权之间的联系,特别关注《欧洲人权公约》(ECHR)所载的权利和自由,以评估人权保护在当前非强制性治理框架中不可或缺的程度。最后,我们提供了基于实证的政策含义,以告知科学家、研究机构、资助机构、政府和政府间组织以及其他参与推动人工智能道德责任创新的相关利益相关者。
主要关键词