Loading...
机构名称:
¥ 1.0

AI系统经过经常被模型记忆的数据培训(Carlini等,2021)。机器学习模型的行为就像训练数据的有损压缩机一样,这些模型基于深度学习的性能进一步归因于这种行为(Schelter,2020; Tishby&Zaslavsky,2015年)。换句话说,机器学习模型是培训数据的压缩版本。此外,AI模型还容易受到会员推理攻击的影响,这些攻击有助于评估有关某人的数据是否在培训数据集中(Shokri等,2017)。因此,实施擦除和纠正的权利需要通过模型逆转个人数据的记忆。这涉及删除(1)用作培训输入的个人数据,以及(2)训练有素的模型中特定数据点的影响。

有效实施数据主体的权利

有效实施数据主体的权利PDF文件第1页

有效实施数据主体的权利PDF文件第2页

有效实施数据主体的权利PDF文件第3页

有效实施数据主体的权利PDF文件第4页

有效实施数据主体的权利PDF文件第5页

相关文件推荐

2021 年
¥1.0
2024 年
¥2.0
2024 年
¥1.0
2023 年
¥2.0
2021 年
¥1.0