7。保护个人数据有助于确保技术,新的商业模式和社会根据我们的价值观(例如人类尊严,自主权和自由)发展。EDPB将不断监视新的和新兴技术及其对个人的基本权利和日常生活的潜在影响。数据保护应该对所有人都有效,尤其是面对处理活动,给个人权利和自由带来最大风险(例如防止歧视)。我们将根据我们的共同价值观和规则来帮助塑造欧洲的数字未来。我们将继续与其他监管机构和政策制定者合作,以促进监管连贯性并增强对个人的保护。
凭借其指南,EDPB以紧凑的方式总结了假名的要求和申请领域。这增加了对从任者的法律确定性,并简化了实际方面,尤其是通过在(技术)实施假名之前为基本风险分析提供标准。这些是当局发出的官方建议,尽管它们没有司法约束力。但是,经验表明,EDPB指南在评估中肯定与法院和当局有关。
欧洲数据保护委员会(EDPB)特定隐私声明(SPS)年度报告 - 利益相关者的调查上次更新:2025年1月索引1。简介2。谁负责处理您的个人数据,以及在哪些法律基础上处理?3。我们收集了哪些个人数据以及出于什么目的?4。您的个人数据是否受到任何国际转移?5。谁可以访问您的个人数据以及他们向谁披露?6。我们如何保护您的个人数据?7。我们保留您的个人数据多长时间?8。您如何验证,修改或删除您的个人数据?9。您需要等待多长时间才能收到我们对数据主题权利的答复的答复?10。您可以联系谁问问题或行使您的权利?11。您可以联系谁,以抱怨您的个人数据处理?1。简介
签名的行业协会欢迎EDPB倡议组织一项利益相关者活动,以在AI模型培训的背景下就其对数据处理的意见获取反馈。尽管我们赞赏该倡议,但鉴于讨论的复杂性,快速曲目的意见是否是适合此特定问题的适当工具,或者诉诸更广泛的指导方针是否更适合目的。
指南摘要1。匿名AI模型。EDPB认为某些AI模型不应被视为“匿名”,因为它们旨在提供个人数据作为输出(例如,在提示时使用培训中的个人数据回复的AI模型)。的确,EDPB认为,即使不是针对此类目的而设计的AI模型,培训中使用的个人数据也可能仍然“吸收”到AI模型的参数中,因此可以在使用过程中提取。因此,根据EDPB,AI模型只会被视为匿名(因此不受GDPR的约束),在这种情况下,提取和获取潜在的个人数据的可能性(直接或通过查询)“无关紧要”是“无关紧要的”,即受到控制者或其他人使用“合理的可能”来提取/获取此类个人数据的“合理含义”。
具体而言,EDPB 和 EDPS 认为,澄清本提案中的规定与 GDPR 和成员国法律中的规定之间的关系非常重要。EDPB 和 EDPS 承认本 EHDS 提案旨在并努力遵守 GDPR 的界限。例如,当它通过联盟法律为符合 GDPR 第 6 条和第 9 条规定的 GDPR 结构的健康数据处理创建法律依据和/或例外情况时,就可以确认这一点。但是,至于这些条款所需的清晰度水平,仍有许多工作要做(通过改进条款和进一步澄清),特别是关于根据 GDPR 第 9(4) 条将这些条款与成员国法律相互作用。这些担忧反映在对提案第二章和第四章的评论中。
1信息政策领导中心(CIPL)是Hunton Andrews Kurth LLP律师事务所的全球隐私和数据政策智囊团,并得到律师事务所的财务支持,以及85多个成员公司,是全球经济主要部门的领导者。CIPL的使命是参与思想领导力并发展最佳实践,以确保在现代信息时代对数据负责和有益地使用。CIPL的工作促进了业务领导者,数据治理和安全专业人员,监管机构和政策制定者之间的建设性参与。有关更多信息,请参阅CIPL的网站https://www.informationpolicycentre.com/。本文档中的任何内容都不应解释为代表任何个人CIPL成员公司或律师事务所Hunton Andrews Kurth LLP的观点。本文档并非被设计为也不应作为法律建议。2 EDPB指南1/2024,p。 4。2 EDPB指南1/2024,p。 4。
首先,在欧盟层面,2024 年 2 月在委员会内成立的欧洲人工智能办公室(AI Office)将监督《人工智能法案》在成员国的执行和实施,并确保在欧盟层面的协调。与国家市场监督机构一起,人工智能办公室将成为全球第一个执行人工智能约束性规则的机构,因此有望成为国际参考点。值得注意的是,人工智能办公室还将监督通用人工智能(GPAI)模型新规则的实施和执行。人工智能办公室还将与新成立的欧盟人工智能委员会(AI Board)合作,该委员会主要就《人工智能法案》的实施提供建议,协调国家监管机构,并以类似于 GDPR 下欧洲数据保护委员会(EDPB)职能的方式发布建议和意见。与 EDPB 一样,人工智能委员会将由代表成员国组成。最后,委员会将实施一个由独立专家组成的科学小组,以支持《人工智能法案》下的执法活动——特别是提醒人工智能办公室注意 GPAI 模型可能存在的系统性风险。
在2024年,DPA通过对符合数据保护的AI和备受瞩目的执法发表指导,观点和框架来宣称自己作为AI的重要监管者。尤其是在欧盟中,我们在将欧盟一般数据保护法规(GDPR)应用于AI时看到了重要的DPA活动 - 包括荷兰DPA的3050万欧元Clearview AI罚款AI,爱尔兰数据保护委员会对Irish High Court对X的悬挂程序,意大利DPA的1500万欧元Openai罚款,并依赖于GERTIAL的ITALIAN高级罚款,并以GEDSEK进行了研究。此外,法国,德语,西班牙语,荷兰和比利时DPA发出了一系列与AI相关的指导,随后是欧洲数据保护委员会(EDPB)对AI模型的意见。毫不奇怪,EDPB和许多欧盟DPA也发布了陈述,建议将欧盟DPA指定为欧盟Landmark AI法案的市场监视当局,该法案现已有效。
在此背景下,考虑到这些技术引发的数据保护问题,爱尔兰监管机构要求 EDPB 根据 GDPR 第 64(2) 条就一般适用事项发表意见。该请求涉及在人工智能(“AI”)模型的开发和部署阶段处理个人数据。该请求更详细地询问:(1)何时以及如何将 AI 模型视为“匿名”;(2)控制者如何证明合法利益作为开发和(3)部署阶段的法律依据的适当性;(4)在 AI 模型的开发阶段非法处理个人数据会对 AI 模型的后续处理或运行产生什么影响。