Authors Drafting Expert Group ( 起草 专 家 组 ) comprised of Professor Zhang Linghan ( 张 凌寒 ) of China University of Political Science and Law ( 中国政法大学 ), Professor Yang Jianjun ( 杨 建 军 ) of Northwest University of Political Science and Law ( 西北政法大学 ), Senior Engineer Cheng Ying ( 程 莹 ) of China Academy of Information and Communications Technology (CAICT; 中国信息通信研究院 ; 中国信通院 ), Associate Professor Zhao Jingwu ( 赵 精武 ) of Beijing University of Aeronautics and Astronautics (Beihang University; 北京航空航天大学 ), Associate Professor Han Xuzhi ( 韩 旭至 ) of East China University of Political Science and Law ( 华东 政法大学 ), Professor Zheng Zhifeng ( 郑 志峰 ) of Southwest University of Political Science & Law ( 西南政法大学 ), and Associate Professor Xu Xiaoben ( 徐小奔 ) of Zhongnan University of Economics and Law ( 中南 财经 政法大学 )
• 使用潜意识、操纵或欺骗手段扭曲行为,妨碍知情决策,造成重大伤害。 • 利用与年龄、残疾或社会经济状况相关的弱点扭曲行为,造成重大伤害。 • 生物特征分类系统推断敏感属性(种族、政治观点、工会会员资格、宗教或哲学信仰、性生活或性取向),但标记或过滤合法获取的生物特征数据集,或执法部门对生物特征数据进行分类的情况除外。 • 社会评分,即根据社会行为或个人特征对个人或群体进行评估或分类,对这些人造成有害或不利的待遇。 • 仅根据分析或性格特征评估个人犯罪的风险,但用于增强基于与犯罪活动直接相关的客观、可验证事实的人类评估的情况除外。 • 通过从互联网或闭路电视录像中无针对性地抓取面部图像来编制面部识别数据库。 • 在工作场所或教育机构推断情绪,医疗或安全原因除外。 • 在公共场所为执法部门提供“实时”远程生物特征识别 (RBI),但以下情况除外:
摘要:人工智能生成的内容在人们生活中的出现越来越多,而能够有效浏览和区分此类内容的重要性与透明度有着内在联系,我们的研究重点是透明度,我们通过评估《人工智能法案》第 50 条来研究这一概念。本文呼吁采取行动,在指定《人工智能法案》的透明度要求时考虑最终用户的利益。它侧重于一个特定的用例——媒体组织在生成人工智能的帮助下制作文本。我们认为,目前的形式下,第 50 条留下了许多不确定性,并且有可能在保护自然人免受操纵或赋予他们采取保护行动的权力方面做得太少。本文结合文献和调查数据分析(基于代表荷兰人口的样本),就《人工智能法案》透明度义务的实施提出了具体的政策和监管建议。其主要目的是回答以下问题:如何协调《人工智能法案》适用于人工智能生成的数字新闻文章的透明度规定与新闻读者对操纵和赋权的看法?
○ (i) 高风险人工智能系统在以下情况下继续学习:(a) 提供、出售、出租、许可、赠予或以其他方式提供给部署者;或 (b) 部署;○ (ii) 变更是……本节第 (10)(b)(i) 款所述的任何学习的结果;○ (iii) 当部署者或与部署者签约的第三方完成对此类高风险人工智能系统的初步影响评估时,该变更是由部署者或部署者签约的第三方预先确定的……;以及○ (iv) 该变更包含在高风险人工智能系统的技术文档中。
提醒一下,AIA 目前是欧盟委员会起草的一项立法草案。虽然欧盟成员国最终可能会实施类似的法案,但该法案目前正处于由欧洲议会民选议员与欧盟各国政府合作和协商修订的阶段。虽然欧盟监管提案的核心是保护人们免受人工智能对健康、安全和基本权利的风险,但我们承认,在制定政策时,必须对财务影响进行合理的分析。只有这样,要求才能转化为切实可行的行动计划,并最终付诸行动。这种务实的分析过程也可以发现可能被忽视的假设和连贯性缺陷。我们还单独对该法案本身进行了较长的评论,请参阅“对欧盟人工智能法案的反思以及我们如何使其变得更好”。3
● 受监管实体的潜在范围更广:与通常适用于满足特定门槛的受监管实体的州数据隐私法不同,CAIA 适用于任何开发或部署高风险 AI 系统的个人或实体。此外,该法律的一部分适用于提供或部署面向消费者的 AI 系统的任何实体。 ● 特定角色的义务:CAIA 为部署者和开发者分配了特定角色的义务,类似于数据隐私制度下的控制者和处理者。部署者直接与个人互动并最终控制系统的使用方式,需要维护风险管理计划、进行影响评估并提供相关的消费者权利。另一方面,开发者必须提供部署者履行其职责所需的信息和文档。 ● 减轻算法歧视的注意义务:开发者和部署者有注意义务保护消费者免受算法歧视,这在实践中可能意味着 CAIA 的执行者将使用比例测试来评估开发者和部署者的行为。 “算法歧视”的定义似乎涵盖了故意歧视和差别影响。● 新型消费者权利:除了类似立法中常见的消费者权利(例如使用前通知权)外,如果高风险人工智能系统做出不利决定,CAIA 还为消费者提供了特殊权利。在这种情况下,部署者必须向消费者提供理由陈述、纠正权,并在可行的情况下上诉人工审查。● 总检察长权力:尽管 CAIA 没有创建私人诉讼权,但它赋予科罗拉多州总检察长执行法律和实施必要法规的重要权力。
虽然我们总体上支持多方利益相关者的方法,使行业能够参与起草过程,但《人工智能法案》次级立法(例如指南和通用人工智能 (GPAI) 行为准则)的审议速度过快,限制了利益相关者提供有意义意见的能力。这种方法不成比例地使大型、资源丰富的公司受益,而将较小的欧洲创新者排除在外。欧洲公司必须有机会参与直接影响其投资和创新能力的标准制定过程。鉴于这些准则和指南草案的技术性和详细性,利益相关者需要合理且相称的时间来做出回应。例如,我们建议将 GPAI 行为准则 V2 的反馈截止日期延长至 2025 年 1 月下旬。此外,根据需要更新每轮磋商的暂定时间表将有助于企业有效地分配资源。最后,我们鼓励委员会进一步加强人工智能办公室,提高其有效管理这些流程的能力。
4 数据表记录了收集给定数据集背后的动机,以及任何数据处理和受影响的利益相关者。模型卡包括有关模型架构和开发、其预期和超出范围的用途、评估指标、训练数据和道德考虑的披露。
1 研讨会于 2023 年 7 月在阿姆斯特丹大学举行。更全面的建议版本将在即将发表的文章中发表。我们感谢各位参与者在研讨会期间和之后的宝贵意见(参加研讨会并不等于认可下文列出的所有建议):Bettina Berendt 博士(柏林工业大学互联网与社会教授)、Ian Brown 博士(里约热内卢热图利奥·瓦尔加斯基金会法学院技术与社会中心客座教授、顾问)、Nick Diakopoulos 博士(西北大学传播学和计算机科学教授(特聘))、Tim de Jonge(拉德堡德大学博士候选人)、Christina Elmer(多特蒙德大学数字新闻/数据新闻教授)、Natali Helberger 博士(阿姆斯特丹大学杰出法学与数字技术大学教授)、Clara Helming(AlgorithmWatch 高级政策与宣传经理)、Karolina Iwańska(欧洲非营利组织中心数字公民空间顾问)法)、Frauke Kreuter 博士(慕尼黑大学统计与数据科学教授)、Laurens Naudts 博士(阿姆斯特丹大学法学博士后研究员)、Liliane Obrecht(巴塞尔大学法学博士生)、des 博士。 Angela Müller(AlgorithmWatch 政策与宣传主管)、Estelle Pannatier(AlgorithmWatch CH 政策与宣传经理)、Stanislaw Piasecki 博士(阿姆斯特丹大学法学博士后研究员)、João Quintais 博士(阿姆斯特丹大学信息法助理教授)、Matthias Spielkamp(AlgorithmWatch 创始人兼执行董事)、Daniel Oberski 博士(乌得勒支大学健康数据科学教授)、Ot van Daalen 博士(律师;阿姆斯特丹大学信息法讲师和研究员)、Kilian Vieth-Ditlmann(AlgorithmWatch 政策与宣传副团队负责人)、Sophie Weerts 博士(洛桑大学公法副教授)、Frederik Zuiderveen Borgesius 博士(拉德堡德大学 ICT 和法律教授)。此外,我们感谢以下专家对研讨会成果的宝贵书面反馈:Nikolett Aszódi(AlgorithmWatch 政策与宣传经理)、Paul Keller(Open Future 政策总监)和 Alex Tarkowski(Open Future 战略总监)。