3 COBRA 资源 E(从人权、民主和法治的角度说明性关注领域)[将于 2025 年由 CAI 制定和通过] 提供了可用于执行或指导此评估的工具。 4 HUDERIA 模型中的角色和职责部分将为方法论的这一方面提供指导。 5 相关领域的专业知识可能包括人权、隐私和个人数据保护、数据科学、数据集管理、安全、人工智能风险以及人工智能测试、评估、验证和确认等问题。 6 遵循欧洲委员会《人工智能与人权框架公约》、《民主与法治》、联合国人权事务高级专员办事处和联合国《工商企业与人权指导原则》,就 HUDERIA 而言,“严重性”一词应理解为由规模、范围和可逆性等变量组合而成。
以期在《框架公约》生效后引起志同道合国家加入该公约的兴趣。由于没有非洲国家参与《框架公约》的谈判,秘书处特别重视非洲地区。汉娜·容切尔主任将在经合组织-非洲联盟 (AU) 人工智能对话 (开罗,2024 年 11 月 19 日至 20 日) 之际向非洲联盟成员国发表讲话。它还向主席团通报了其出席会议和参与其他国际人工智能组织工作的情况。4.制定 HUDERIA 方法的后续步骤
“人工智能系统的人权、民主和法治保障框架”是阿兰·图灵研究所应欧洲理事会人工智能特设委员会 (CAHAI) 秘书处的要求编写的一份文件。它包含基于 CAHAI 政策发展小组 (PDG) 工作的建议,特别是其人权影响评估子工作组 1,旨在实施 CAHAI-PDG(2021)05rev 中提出的人权、民主和法治影响评估模型 (HUDERIA) 的大纲。PDG 提出的重要想法得到了进一步发展,旨在构建一套有凝聚力的实用工具和流程,使 HUDERIA 成为现实。为此,拟议的《人权、民主和法治保障框架》(HUDERAF)旨在提出一种连贯、综合的方法来评估人工智能系统对人权、民主和法治产生的潜在不利影响,并确保充分减轻和管理已确定的风险。具体而言,该框架由几个明确阐述但合理相互关联的流程和工具组成,涵盖了 PDG 概述的所有功能和目标。它将基于背景的风险分析和适当的利益相关者参与与全面的影响评估、透明的风险管理、影响缓解和创新保障实践相结合。HUDERAF 通过将基于原则的人权尽职调查的程序要求与为负责任和值得信赖的人工智能创新实践建立技术和社会技术护栏所需的治理机制相结合,为人工智能项目生命周期的保障提供了一种端到端的方法。其目的是提供一套易于访问且用户友好的机制,以促进遵守法律框架,并确保人工智能创新项目在适当的公共问责、透明度和民主治理水平下开展。HUDERAF 包含四个相互关联的要素:
根据 CAHAI 的建议,秘书处制定了一项方法草案(《人权、民主和法治风险和影响评估》(HUDERIA),其作用是协助国内当局执行未来[框架]公约中规定的要求。该方法旨在制定明确、具体和客观的标准,以确定在哪些敏感环境下部署人工智能系统或此类系统的组合可能会对人权的享受、民主的运作和法治的遵守造成重大风险。它还规定了程序机制,确保负责部署人工智能系统的人员制定充分的风险分析、影响评估、影响缓解、补救措施和系统监测协议。该方法并没有规定这种评估的具体模型,而是列出了这种评估所需的要素,以保证各国采用统一的方法,但同时也给各国留出了根据具体国情建立自己模型的空间。就风险和影响评估相关问题而言,《框架公约》零草案中的初步建议有两方面: