该分析通过分析国际人权机制向联合国成员国提出的关于气候变化的主题适应的国际人权机制提出的建议,深入研究了对气候变化适应的人权义务的日益认识。这些建议向各州提供有关如何遵守他们批准的条约中的人权义务的指导,从而在下面承担了具有法律约束力的义务。他们还可以作为如何确保有效适应的有用指导。这可以帮助包括政府行为者在内的不同人权和发展参与者进行政策制定和计划。明确了关于气候变化适应的人权义务的范围,还可以使国家人权机构(NHRIS),民间社会行为者和权利持有人组织能够有效地分析或建议其国家的适应措施,或者为所述措施的设计,实施和监测。
职业安全,供应商绩效和员工参与度。我们不断开发这些过程,以解决人权的影响。我们希望我们的战略供应商和分包商能够符合供应商行为守则中概述的负责业务标准。我们的目标是在我们的供应商选择,评估和审计过程中包括对人权影响的考虑。我们在整个运营中不断促进和增强健康,安全的工作环境。我们的人力资源政策和程序不断制定,以确保格拉斯顿是一个平等而公平的工作场所。Glaston通过持续的对话与利益相关者互动,例如,通过供应商网站访问,员工调查,客户满意度调查和访谈,投资者对话和安全调查。格拉斯顿(Glaston)定期进行双重重要性评估,以定义最重要的可持续性相关积极和负面影响,以及考虑人权方面的风险和机会。
执行委员会 (ExCom) 向董事会提供信息,负责管理组织的可持续性影响,包括整个运营过程中的人权和现代奴隶制风险。执行委员会每年召开七次会议,讨论运营绩效,并确保有效实施与人权相关的风险和机遇的关键战略应对措施。执行委员会得到执行委员会可持续性工作组的支持,该工作组就我们整个价值链中可持续性运作的各个方面提供建议,包括通过战略、计划优先事项、目标设定和资源配置来管理人权和现代奴隶制风险。
问题 10-13:受影响的人群问题 10-13 要求开发人员考虑 AI 系统可能对哪些人产生影响。所有人都享有平等的权利,也享有不受歧视地生活的权利。但是,以同样的方式对待他人并不一定会导致实质性平等。在某些情况下,在当前和历史上面临充分和公平参与社会障碍的人群可能会继续面临歧视,除非这种歧视被发现和解决。如果 AI 系统针对、影响或忽视历史上处于弱势的群体,则 AI 系统可能面临高风险。
执行摘要 国家人工智能战略 (NAS) 是一份通常由政府制定的文件,其中阐述了政府对人工智能 (AI) 的广泛战略方针,包括与 AI 相关的特定重点领域和将开展的活动。在此过程中,NAS 试图协调政府政策,以最大限度地提高经济和社会的潜在利益,同时最大限度地降低潜在成本。自 2017 年以来,已有 40 多个国家和区域政府间组织发布了这些战略,还有更多的国家正在制定中。本报告的目的是了解迄今为止人权如何(或尚未)被纳入 NAS,确定区域层面的新兴趋势,并为未来如何纳入人权提供建议。最近 NAS 数量的增加反映了许多国家的政府开始认真思考如何利用人工智能带来的经济和社会利益,并在该技术的全球市场上保持竞争力。至关重要的是,在各国制定战略的同时,它们还应建立一种方法,确保这种创新不会以侵犯人权为代价。人权在国家人工智能战略中的重要性 根据国际人权法,各国有义务保护其领土和管辖范围内所有人的人权,使其免受侵犯,无论是由于其自身政策或做法,还是由于企业或其他个人等第三方的行为。人权考虑适用于政府政策和实践的所有领域,包括政府和社会其他实体使用的人工智能政策和人工智能应用。国家人工智能战略代表着政府(或政府集团)如何处理人工智能的全面路线图。这包括如何监管人工智能,如何支持人工智能领域的创新,以及如何应对人工智能对人们生活和劳动力的影响。随着改善人工智能培训或开发新技术的战略的实施,它可能会在没有充分解决与侵犯人权有关的风险的情况下实现。因此,国家人工智能战略必须阐明如何确保保护人权。尽管在制定人工智能政策时考虑人权至关重要,但迄今为止,很少有国家人工智能战略深入研究这项技术的人权影响。对于一些国家的政府来说,这可能是因为他们在制定政策时并没有将保护人权放在首位。一些政府确实将人权放在首位,但当与政府对人工智能的其他目标形成鲜明对比时,他们可能会发现很难概述保护人权的方法,例如增强经济或地缘政治竞争力。还有一些人可能只是不知道在这个政策领域创建一个尊重权利的 NAS 会是什么样子。然而,国家保护人权的义务不会因为不明确或不方便而消失。一些人提出了人工智能治理的新道德框架。在某些情况下,这是试图完全规避人权框架,或规避政府认为不方便的部分。在其他情况下,这是试图超越人权框架,甚至采取更多的保护措施。至关重要的是要注意,没有什么可以阻止政府在人工智能治理中超越人权框架所保护的范围。然而,有令人信服的理由使用现有的人权
本研究通过探索区域趋势和动态、研究国家背景以及强调共同挑战和治理差距,概述了欧洲和中亚地区数字技术、人工智能 (AI) 和人权使用的现状。它调查了数字技术在该地区如何部署、使用和监管,特别关注数据保护、隐私和人工智能治理框架。在欧洲和中亚,对生物识别、人工智能、视频监控系统和面部识别等数字技术进行了大量的经济和政治投资。然而,该地区的国家在制定隐私和数据保护法律框架方面落后了,该框架无法解决这些复杂的技术及其使用所产生的社会需求。详细的国家审查表明,组织方面仍需充分建立,有效实施、监测和评估这些机制仍然是一项关键挑战。
本报告的作者们想向在整个研究项目中提供支持并为本项目的成功做出重大贡献的人们表示感谢。我们要感谢日内瓦国际人道主义法和人权学院,特别是 Erica Harper 和 Bernard Duhaime 在项目过程中的支持。我们还要感谢日内瓦研究生院 (IHEID),特别是 Erica Moret 在项目过程中提供的学术和组织建议以及指导。此外,我们还向 Ansgar Koene、Cecilia Garcia Podoley、Danielle Ralic、Emmanuel Goffi、Gaelle Mogli、Giuliano Borter、Inês Gonçalves Ferreira、Jean Ng、Kolja Verhage、Marco Manca、Oana Ichim、Paola Gálvez Callirgos、Richard Benjamins、Shiran Melamdovsky Somech、Shea Brown、Tatiana 致以诚挚谢意Caldas-Löttiger、Vahid Razavi 和 Walid el Abed 的宝贵见解和观点丰富了该研究项目。
基于数字化、自动化和人工智能的新技术在短短几十年内从根本上改变了我们的生活和整个社会。这些技术通过促进进步和创新来支持人类的福祉和繁荣,但它们也有可能对人权、民主和法治产生负面影响。歧视、侵犯隐私、监视增加、个人自主权削弱、虚假信息和选举干预只是众多问题中的一小部分。本文通过联合国和区域人权机制通过的最重要的国际文书的视角,研究了人工智能驱动系统对人权的具体影响。本文展示了人工智能如何影响所有人权的行使,而不仅仅是最明显的少数人权。与主要国际组织一致,作者呼吁决策者采取预防措施,采用符合基本人权标准的人工智能法规,并在实现人工智能带来的机会与潜在风险之间取得平衡。
1978 年 1 月 18 日 2 从 1971 年 8 月到 1975 年 12 月,英国当局在北爱尔兰行使了一系列“法外”逮捕、拘留和拘禁权力。该案涉及爱尔兰政府对这些措施的范围和实施的投诉,特别是在对与恐怖主义行为有关的被拘留者进行预防性拘留期间使用心理审讯技术(靠墙站立、蒙头、施加噪音和剥夺睡眠、食物和饮水)。法院发现这些方法造成了巨大的身心痛苦,裁定本案违反了《公约》第 3 条(禁止不人道和有辱人格的待遇)。它进一步裁定,没有违反《公约》第 5 条(自由和安全权)或第 14 条(禁止歧视)。
1 明尼苏达州人权部是该州的民权执法机构。其任务是执行《明尼苏达州人权法案》。请参见《明尼苏达州法规》第 363A 条及以下条款。2 《明尼苏达州法规》第 363A.12 条第 1 款(禁止公共服务中的歧视);明尼阿波利斯市等诉理查森案,307 Minn. 80 (1976)(在明尼苏达州人权部起诉明尼阿波利斯警察局的案件中,裁定种族歧视性警务行为违反《明尼苏达州人权法案》。)3 由于明尼苏达州人权部完成了模式或实践调查,因此其调查重点并非单个事件或单个警官。此外,明尼苏达州人权部并未确定市政府和明尼阿波利斯警察局是否违反了任何联邦法律或任何州或联邦宪法条款。 4 国际卡车司机兄弟会诉美国案,431 U.S. 324, 336 (1977)。5 明尼苏达州法规 § 363A.12,第 1 部分(禁止公共服务中的歧视)。