与该法案一起阅读,《规则草案》提供了重要的指导,以帮助公司准备实施该法案,该法案可能在短短六(6)个月内进行。虽然可以在评论后进一步完善规则草案,但建议公司通过参与咨询过程,进行数据流映射,审查内部和外部流程以及修改其政策,惯例和文档来准备。
人工智能 (AI) 已从科幻小说中的概念迅速发展成为我们生活中相对常见的特征。生成式人工智能是人工智能中一个快速崛起的分支,它可以创建与输入数据非常相似的、以前不存在的新数据。在适当的条件下,生成式人工智能模型可以生成高质量的文本、图像、音乐等。然而,生成式人工智能的便利性和创新潜力是有代价的。尽管它具有广阔的功能,但与这些系统共享个人数据会给隐私、机密性以及数据的完整性和安全性带来巨大风险。了解这些风险对于保护个人数据保护权利和维护安全的数字环境至关重要。与大多数人工智能系统一样,生成式人工智能是数据驱动的。传统的人工智能训练涉及将大型数据集输入人工智能模型,然后人工智能模型可以从这些数据中学习模式和特征。训练完成后,人工智能系统就能够根据所学的模式和特征生成输出。这意味着,一旦个人数据成为人工智能训练集的一部分,它就会有助于人工智能内部模型的形成,并将不可避免地影响其行为和输出。实际上,数据成为了人工智能的“一部分”,因为它为系统的理解和知识提供了信息。这带来了重大的数据保护问题,因为个人数据是训练数据。使用个人数据训练的生成式人工智能模型可以提取姓名、地址、健康信息甚至财务数据等敏感信息,然后将这些数据重新发布到不同用户的搜索结果中。此外,生成式人工智能模型可以通过生成更多与原始输入相似的数据来扩大曝光率。第三方可能会利用这些数据进行非法活动,包括侵入性广告、网络钓鱼诈骗,或者在更严重的情况下进行欺诈或身份盗窃。这凸显了控制生成式人工智能模型使用个人数据方式的复杂性。一旦个人数据与生成式 AI 模型共享,管理和跟踪其使用情况就会成为一项复杂(甚至不可能)的任务,这是由于 AI 系统处理信息以及在不同系统之间存储和复制数据的方式的性质。因此,撤回与生成式 AI 模型共享的个人数据可能非常困难或不切实际。DPO 的教训是,用户必须准确了解哪些类型的信息可以与生成式 AI 工具共享,哪些不能,因为一旦个人数据被共享,就已越过界限,很难撤销已做的事情。
加密敏捷性试图通过允许快速弃用易受攻击的原语并用新原语替换来解决对信息安全的隐含威胁。*后量子密码学 (PQC),有时也称为量子防护、量子安全或量子抗性,是一种加密算法的发展,被认为可以抵御量子计算机的密码分析攻击。虽然截至 2024 年,量子计算机缺乏破解广泛使用的加密算法的处理能力,但密码学家正在设计新算法,为 Q-Day 做准备,即当前算法容易受到量子计算攻击的那一天。
E-commerce entities (with >2 crore users in India), gaming intermediaries (with >50 lakhs users in India) and social media intermediaries (with >2 crore users in India) must erase personal data after three years from the date the Data Principal last approached the fiduciary, except for enabling the Data Principal to access their account or any virtual tokens issued by or on behalf of the Data Fiduciary
努力基于具有信任和协议的免费数据流中的国际数据流中的融合,从而使执法机构对数据进行访问。这包括支持和建立诸如全球跨境隐私规则(CBPR),处理器的全球隐私识别(PRP),具有信任的G7数据自由流和OECD原则的政府访问私营部门实体持有的个人数据的原则。这种方法将在执法部门对数据的访问与严格的隐私保护之间取得平衡,以确保跨境数据访问尊重个人权利并遵守国际规范。交叉认可问责制框架,合规性认证或行为的约束代码可以确保组织保护更高水平的数据保护并提高个人的信任。
4 OA Mendoza Enríquez,“人工智能系统中个人数据保护权”,《普埃布拉法学研究所期刊》,第 15 卷,第 48 期,墨西哥,2021 年 12 月,第页。 180. 5 联合国,人工智能、电子治理和信息获取,联合国,2022 年。6 OA Mendoza Enríquez,“人工智能系统中个人数据保护权”,《普埃布拉法学研究所刊》,第 15 卷,第 48 期,墨西哥,2021 年 12 月,第 6 页。 180. 7 联合国,《人工智能对隐私的风险需要紧急采取行动——巴切莱特》,联合国,2021 年,网址:https://www.ohchr.org/en/press-releases/2021/09/artificial-intelligence-risks-privacy-demand-urgent-action-bachelet
自从人工智能开始专注于将机器学习应用于海量数据以来,它取得了令人瞩目的飞跃。机器学习系统发现数据之间的相关性并建立相应的模型,将可能的输入与可能正确的响应(预测)联系起来。在机器学习应用中,人工智能系统在经过大量示例的训练后学会做出预测。因此,人工智能对数据如饥似渴,这种渴求刺激了数据收集,形成了一个自我强化的螺旋:基于机器学习的人工智能系统的发展以创建庞大的数据集(即大数据)为前提,并促进了大数据的创建。人工智能和大数据的融合可以为经济、科学和社会进步带来诸多好处。然而,它也给个人和整个社会带来了风险,例如无处不在的监视和对公民行为的影响,公共领域的两极分化和分裂。
• 匿名化包括可用于确保载有个人数据的数据集完全且不可逆地匿名化的技术,以使它们与已识别或可识别的自然人无关,或者数据主体无法或不再可识别。 • 生物特征识别或生物特征识别是指基于个人的生物学和行为特征自动识别个人。 • 现金转移计划或规划、现金援助干预和现金援助是人道主义领域的术语,用来描述以代金券或现金形式提供的人道主义援助。 • CERT – 计算机应急响应小组 • CISO – 首席安全信息官 • 同意是指数据主体自愿、具体和知情地表明其意愿,数据主体借此表示同意处理与其有关的个人数据。 • CSIRT – 计算机安全事件响应小组 • CSO – 首席安全官 • CTO – 首席技术官 • 数据分析是指将大量不同来源的信息(大数据)结合起来,并使用复杂的算法对其进行分析,以提供决策依据的做法。 • 数据控制者是指单独或与他人共同决定处理个人数据的目的和方法的个人或组织。 • 数据处理者是指代表数据控制者处理个人数据的个人或组织。 • 数据保护影响评估或 DPIA 是指识别、评估和解决项目、政策、方案或其他举措对个人数据产生的风险的评估。 • 数据主体是指可直接或间接识别的自然人(即个人),尤其是通过个人数据。 • 本《手册》中的 DPO 是指人道主义组织的内部数据保护办公室或数据保护官。 • 无人机是远程控制或自主操作的小型空中或非空中单位。它们也被称为无人驾驶飞行器 (UAV) 或遥控飞机系统 (RPAS)。 • 进一步处理是指对个人数据的额外处理,其范围超出了收集数据时最初指定的目的。 • 健康数据是指与个人身体或精神健康有关的数据,这些数据可揭示有关其健康状况的信息。 • 人道主义行动是指为应对人道主义紧急情况而以公正的方式开展援助、救济和保护行动的任何活动。人道主义行动可能包括“人道主义援助”、“人道主义救助”和“保护”。 • 人道主义紧急情况是指对社区或其他大型群体的健康、安全、保障或福祉构成严重威胁的事件或一系列事件(特别是由武装冲突或自然灾害引起的事件)。通常覆盖广阔的区域。• 人道主义组织是指根据其职责和/或使命,在人道主义紧急情况下提供援助以减轻人类苦难、保护生命和健康并维护人类尊严的组织。• IaaS – 基础设施即服务