可行性研究第 9 章概述。本文件采用类似的结构。在第 I 部分,概述了与人工智能应用的人权 (HR)、民主 (D) 和法治 (R) 影响评估模型 (HRDRIA) 相关的方法论考虑。在这方面,该文件介绍了现有的影响评估工具和框架,这些工具和框架要么特别与人工智能有关,要么适用于一般人权影响评估。此外,它探讨了这些工具和框架最相关的特征,特别是人工智能系统的主要特征和评估变量,以及如何将法治和民主纳入人工智能系统的综合评估模型。在第 II 部分,该文件提出了 HRDRIA 的可能方法,以期在后期制定具体的评估模型。在第三部分中,我们将研究未来 HRDRIA 与第二部分中提到的现有影响评估的互补性,以及可行性研究第 9 章中概述的合规机制,以期增强附加值和互补性。
执行摘要:近年来,私营公司、研究机构和公共部门组织已发布了有关人工智能 (AI) 道德使用的原则、指南和其他软法律文书。然而,尽管人们显然一致认为人工智能应该是“合乎道德的”,但对于什么是“合乎道德的人工智能”,以及实现人工智能需要哪些道德要求、技术标准和最佳实践,仍存在争议。本报告旨在绘制全球政府和非政府组织制定的相关软法律文件和其他道德法律框架,目的有两个。首先,我们希望监测这一不断发展的非强制性治理工具。其次,我们希望前瞻性地评估人工智能对道德原则、人权、法治和民主的影响。该报告采用了经过改编和预先验证的范围审查协议,以提供当前软法律工作的全面和最新概述。我们审查了政府机构、非政府组织、学术机构和私营公司等发布的总共 116 份文件。我们的分析确定了五个突出的道德原则集群,并评估了它们在当前治理话语中的作用。从反面来看,我们的分析揭示了当前软法领域中存在的盲点和解释差距。此外,我们建立了道德原则与人权之间的联系,特别关注《欧洲人权公约》(ECHR)所载的权利和自由,以评估人权保护在当前非强制性治理框架中不可或缺的程度。最后,我们提供了基于实证的政策含义,以告知科学家、研究机构、资助机构、政府和政府间组织以及其他参与推动人工智能道德责任创新的相关利益相关者。
2. 具体而言,在数字领域,过去几十年的进步为通信、信息消费、公共管理、教育和日常生活的许多其他方面提供了新的工具,从根本上改变了社会。由于使用统计方法检测大型数据集中的模式和趋势,算法系统现在可以识别图像或声音、简化服务或产品并在执行复杂任务时实现巨大的效率提升。这些服务和产品通常被称为“人工智能”(AI 2 ),通过促进进步和创新,有可能促进人类繁荣以及个人和社会福祉。成员国一致认为,经济繁荣是公共政策的重要目标,并将创新视为其关键组成部分之一。与此同时,人们对不同类型的人工智能应用造成的危害及其对人类和社会的潜在负面影响的担忧日益增加。歧视、监视社会的出现、人类能动性的弱化、信息扭曲、选举干预、数字排斥和可能有害的注意力经济只是人们表达的一些具体担忧。
1.本文件包含欧洲委员会人工智能特设委员会 (CAHAI) 的工作成果,该委员会根据欧洲委员会的人权、民主和法治标准,就人工智能的开发、设计和应用法律框架的潜在要素开展工作。2.该文件由 CAHAI 的两个工作组起草,即 CAHAI 政策制定小组 (CAHAI-PDG) 和 CAHAI 法律框架小组 (CAHAI-LFG),同时考虑到第三个工作组 CAHAI 磋商和外联小组 (CAHAI-COG) 于 2021 年春季进行的多利益相关方磋商的成果。该法案已于 2021 年 11 月 30 日至 12 月 2 日在 CAHAI 第六次全体会议上审议并通过,并随后根据 CAHAI 的职权范围提交部长委员会进一步审议。
例如,6 月 18 日举行的 CATS(欧盟第 36 条委员会主席磋商会议)会议,欧盟主席国确认这显然是一个共同感兴趣的话题。此外,DG-Connect 主任 Lucilla Siolli 在 CM 信息政策专题协调员会议上介绍了欧盟关于人工智能监管的提案。这些交流表明,我们组织所做的工作本质上是互补的:虽然欧盟人工智能监管的基础是内部市场和个人数据保护,但欧洲委员会在确保在设计、开发和实施人工智能应用时充分遵守人权、法治和民主方面可以提供真正的附加值。9.Luciani 女士还提到,我们正在实现的协同作用的一个具体例子
1. 人工智能作为一种通用技术,对整个社会结构都有影响。2017 年,欧洲经济和社会委员会在一份被广泛认为是人工智能更广泛社会影响的“初始报告”中,确定了最重要的社会影响领域,包括:安全、道德、法律法规、民主、透明度、隐私、工作、教育和(不)平等。1 这意味着人工智能对我们的人权、民主和法治产生了影响,而这些正是我们欧洲社会建立的核心要素。2. 2019 年,人工智能高级专家组提出了《可信人工智能伦理准则》。2 这些准则将可信人工智能定义为合法、合乎道德和社会技术稳健。对于可信人工智能的道德要素,该准则明确将基本权利作为人工智能伦理的基础。3 虽然这些准则确实包含直接源自现有(人类)权利的要素,但它们本身尚不具有法律约束力。最近,要求为人工智能制定更强有力的(现有或新的)法律约束性文书的呼声越来越高。欧盟委员会在其《人工智能白皮书 4》中宣布了立法框架的潜在要素,并强调人工智能必须符合欧盟基本权利和确保这些权利的法律。3. 本文概述了人工智能对人权、民主和法治的影响。它确定了《欧洲人权公约》(“ECHR”)、其议定书和《欧洲社会宪章》(“ESC”)所规定的目前受人工智能影响最大或最有可能受到影响的人权(第二章)。在第三章和第四章中,它旨在提供一些可以在必要时同时实施的可能策略。第三章着眼于在现有的人权、民主和法治框架内解决影响。第四章着眼于如果现有框架无法充分保护我们,应采取的策略。由于技术和社会正在迅速发展,本文不可能详尽无遗,但会优先考虑当今可以确定的最相关影响。
3) CAHAI-PDG 注意到 CAHAI 主席 Gregor Strojin 先生(斯洛文尼亚)提供的信息,Strojin 先生在开幕致辞中对 CAHAI-PDG 的广泛和多样化表示赞赏,并回顾说,CAHAI-PDG 已承担加快起草可行性研究主要内容的任务,该研究预计将在 2020 年 12 月 15 日至 17 日举行的 CAHAI 第三次全体会议上进行审查。主席强调了 CAHAI-PDG 的重要作用,即该小组有望从政策、实质性和运营角度确定 CAHAI 未来工作的可能方向,从而为 CAHAI 咨询和宣传小组(CAHAI-COG)和法律框架小组(CAHAI-LFG)的工作奠定基础。这三个小组需要密切协商和协同行动。
引言 根据 CAHAI 的建议(见 CAHAI 于 2021 年 12 月通过的《基于欧洲委员会人权、民主和法治标准,人工智能法律框架的可能要素》第 45 至 53 段),秘书处正在制定一种方法,提供明确、具体和客观的标准来识别可能对享受人权、民主运作和遵守法治构成重大风险的人工智能系统或基于此类系统的组合技术。该方法将确保采用统一的方法来识别、分析和评估风险,并评估此类系统对享受人权、民主运作和遵守法治的影响。它在很大程度上可以基于 CAHAI 政策发展小组(PDG)的工作,特别是其关于人权影响评估的第一工作小组的工作,以及阿兰图灵研究所应欧洲委员会人工智能特设委员会(CAHAI)秘书处的要求编写的“人工智能系统的人权、民主和法治保障框架”文件中提出的想法。该模型应基于这样的假设:国内当局通常更有能力做出相关的监管选择,同时考虑到政治、经济、社会、技术和其他类型的背景,并且他们应该在这一领域享有一定的自由裁量权。从这个角度来看,该方法的作用是协助国内当局识别可能对享受人权、民主运作和遵守法治构成重大风险的人工智能系统或基于此类系统的组合技术,并帮助他们管理相关风险。该方法的另一个同样重要的方面是确保我们的方法与行业遵循的现有合规做法无缝兼容,这可通过与代表大型和中小型企业的相关利益攸关方进行磋商等方式实现。值得注意的是,具有法律约束力的文书还应要求未来的缔约方采取适当措施,特别是关于国内主管当局如何监督和控制相关行为者应用该方法以及对国家监督机构、人工智能提供商和人工智能用户的培训,以确保相关行为者能够应用该方法。一般方法 该方法应尽可能设计为“算法中立”和基于实践,以便能够最大限度地适应未来并包容不同的人工智能应用。然而,该模型需要对新型人工智能创新和用例的发展保持响应,并应被视为动态的,需要定期重新审视和重新评估。因此,选择将其放在未来法律文书的附录中,这将有助于未来对该方法进行修订。 方法论的关键要素 该方法可能由许多明确阐述且相互关联的流程和工具/步骤组成:
“人工智能系统的人权、民主和法治保障框架”是阿兰·图灵研究所应欧洲理事会人工智能特设委员会 (CAHAI) 秘书处的要求编写的一份文件。它包含基于 CAHAI 政策发展小组 (PDG) 工作的建议,特别是其人权影响评估子工作组 1,旨在实施 CAHAI-PDG(2021)05rev 中提出的人权、民主和法治影响评估模型 (HUDERIA) 的大纲。PDG 提出的重要想法得到了进一步发展,旨在构建一套有凝聚力的实用工具和流程,使 HUDERIA 成为现实。为此,拟议的《人权、民主和法治保障框架》(HUDERAF)旨在提出一种连贯、综合的方法来评估人工智能系统对人权、民主和法治产生的潜在不利影响,并确保充分减轻和管理已确定的风险。具体而言,该框架由几个明确阐述但合理相互关联的流程和工具组成,涵盖了 PDG 概述的所有功能和目标。它将基于背景的风险分析和适当的利益相关者参与与全面的影响评估、透明的风险管理、影响缓解和创新保障实践相结合。HUDERAF 通过将基于原则的人权尽职调查的程序要求与为负责任和值得信赖的人工智能创新实践建立技术和社会技术护栏所需的治理机制相结合,为人工智能项目生命周期的保障提供了一种端到端的方法。其目的是提供一套易于访问且用户友好的机制,以促进遵守法律框架,并确保人工智能创新项目在适当的公共问责、透明度和民主治理水平下开展。HUDERAF 包含四个相互关联的要素:
根据 CAHAI 的建议,秘书处制定了一项方法草案(《人权、民主和法治风险和影响评估》(HUDERIA),其作用是协助国内当局执行未来[框架]公约中规定的要求。该方法旨在制定明确、具体和客观的标准,以确定在哪些敏感环境下部署人工智能系统或此类系统的组合可能会对人权的享受、民主的运作和法治的遵守造成重大风险。它还规定了程序机制,确保负责部署人工智能系统的人员制定充分的风险分析、影响评估、影响缓解、补救措施和系统监测协议。该方法并没有规定这种评估的具体模型,而是列出了这种评估所需的要素,以保证各国采用统一的方法,但同时也给各国留出了根据具体国情建立自己模型的空间。就风险和影响评估相关问题而言,《框架公约》零草案中的初步建议有两方面: