2. 具体而言,在数字领域,过去几十年的进步为通信、信息消费、公共管理、教育和日常生活的许多其他方面提供了新的工具,从根本上改变了社会。由于使用统计方法检测大型数据集中的模式和趋势,算法系统现在可以识别图像或声音、简化服务或产品并在执行复杂任务时实现巨大的效率提升。这些服务和产品通常被称为“人工智能”(AI 2 ),通过促进进步和创新,有可能促进人类繁荣以及个人和社会福祉。成员国一致认为,经济繁荣是公共政策的重要目标,并将创新视为其关键组成部分之一。与此同时,人们对不同类型的人工智能应用造成的危害及其对人类和社会的潜在负面影响的担忧日益增加。歧视、监视社会的出现、人类能动性的弱化、信息扭曲、选举干预、数字排斥和可能有害的注意力经济只是人们表达的一些具体担忧。
1. 人工智能作为一种通用技术,对整个社会结构都有影响。2017 年,欧洲经济和社会委员会在一份被广泛认为是人工智能更广泛社会影响的“初始报告”中,确定了最重要的社会影响领域,包括:安全、道德、法律法规、民主、透明度、隐私、工作、教育和(不)平等。1 这意味着人工智能对我们的人权、民主和法治产生了影响,而这些正是我们欧洲社会建立的核心要素。2. 2019 年,人工智能高级专家组提出了《可信人工智能伦理准则》。2 这些准则将可信人工智能定义为合法、合乎道德和社会技术稳健。对于可信人工智能的道德要素,该准则明确将基本权利作为人工智能伦理的基础。3 虽然这些准则确实包含直接源自现有(人类)权利的要素,但它们本身尚不具有法律约束力。最近,要求为人工智能制定更强有力的(现有或新的)法律约束性文书的呼声越来越高。欧盟委员会在其《人工智能白皮书 4》中宣布了立法框架的潜在要素,并强调人工智能必须符合欧盟基本权利和确保这些权利的法律。3. 本文概述了人工智能对人权、民主和法治的影响。它确定了《欧洲人权公约》(“ECHR”)、其议定书和《欧洲社会宪章》(“ESC”)所规定的目前受人工智能影响最大或最有可能受到影响的人权(第二章)。在第三章和第四章中,它旨在提供一些可以在必要时同时实施的可能策略。第三章着眼于在现有的人权、民主和法治框架内解决影响。第四章着眼于如果现有框架无法充分保护我们,应采取的策略。由于技术和社会正在迅速发展,本文不可能详尽无遗,但会优先考虑当今可以确定的最相关影响。
执行摘要:近年来,私营公司、研究机构和公共部门组织已发布了有关人工智能 (AI) 道德使用的原则、指南和其他软法律文书。然而,尽管人们显然一致认为人工智能应该是“合乎道德的”,但对于什么是“合乎道德的人工智能”,以及实现人工智能需要哪些道德要求、技术标准和最佳实践,仍存在争议。本报告旨在绘制全球政府和非政府组织制定的相关软法律文件和其他道德法律框架,目的有两个。首先,我们希望监测这一不断发展的非强制性治理工具。其次,我们希望前瞻性地评估人工智能对道德原则、人权、法治和民主的影响。该报告采用了经过改编和预先验证的范围审查协议,以提供当前软法律工作的全面和最新概述。我们审查了政府机构、非政府组织、学术机构和私营公司等发布的总共 116 份文件。我们的分析确定了五个突出的道德原则集群,并评估了它们在当前治理话语中的作用。从反面来看,我们的分析揭示了当前软法领域中存在的盲点和解释差距。此外,我们建立了道德原则与人权之间的联系,特别关注《欧洲人权公约》(ECHR)所载的权利和自由,以评估人权保护在当前非强制性治理框架中不可或缺的程度。最后,我们提供了基于实证的政策含义,以告知科学家、研究机构、资助机构、政府和政府间组织以及其他参与推动人工智能道德责任创新的相关利益相关者。