本文旨在建立对人工智能(AI)与隐私之间的交集的基本理解,概述了AI对隐私构成的当前问题,并暗示了该领域法律进化的潜在方向。到目前为止,很少有评论员探讨了AI和隐私如何相互关联的整体格局。本文旨在绘制这一领域。一些评论员质疑隐私法是否适合解决AI。在本文中,我认为,尽管现有的隐私法远远无法解决AI的隐私问题,但隐私法适当地概念化和构成的隐私法对解决方案的解决方案还有很长的路要走。使用AI的输入和输出出现隐私问题。这些隐私问题通常并不新鲜;它们是长期存在的隐私问题的变化。,但是AI以复杂而独特的方式将现有的隐私问题混合。一些问题以挑战现有监管框架的方式混合在一起。在许多情况下,AI加剧了现有的问题,通常威胁要将它们带到前所未有的水平。总体而言,AI并不是隐私的意外动荡。长期以来,已经预测的是许多方面的未来。,但AI明显地揭示了现有隐私法的长期缺点,虚弱和错误的方法。最终,无论是通过对旧法律的补丁还是作为新法律的一部分,都必须解决许多问题,以解决AI影响的隐私问题。在本文中,我为法律必须解决可以正常工作的方法和将失败的方法的关键问题提供路线图。
圣保罗大学法律学院(USP)法学院的民法硕士学位和民法硕士。在学术领域,他是欧洲数据保护委员会(EDPB)和欧洲理事会(COE)的个人数据保护系的访客,并且是渥太华大学法律法律,技术和学会的访问者。 是“个人数据保护:同意的功能和限制”和“数据注册和保护的功能和限制:问责制的原则”的作者,以及几本书的组织者,例如“数据保护:背景,叙述和建立元素”。。在学术领域,他是欧洲数据保护委员会(EDPB)和欧洲理事会(COE)的个人数据保护系的访客,并且是渥太华大学法律法律,技术和学会的访问者。是“个人数据保护:同意的功能和限制”和“数据注册和保护的功能和限制:问责制的原则”的作者,以及几本书的组织者,例如“数据保护:背景,叙述和建立元素”。将联邦参议院法学家委员会纳入人工智能,数字整合研究委员会和透明度研究委员会在高级选举法院(TSE)的互联网平台上,并且是以TARM为重点的工作组的联合主席。目前,他是国家数据保护委员会(CNPD)的成员,被指定为民间社会组织代表中的持有人,并且是ESPM和IDP-SP的教授。是数据隐私巴西的创始总监,这是一所学校当然与隐私和数据保护领域的研究协会之间的交集空间。
• 商业信息,包括个人财产记录、购买、获得或考虑的产品或服务,或其他购买或消费历史或倾向; • 生物特征信息; • 互联网或其他电子网络活动信息,包括但不限于浏览历史、搜索历史以及有关消费者与互联网网站、应用程序或广告互动的信息; • 音频、电子、视觉或类似信息; • 专业(或就业)相关信息; • 根据本小节中确定的任何信息得出的推论,以创建关于消费者的个人资料,反映消费者的偏好、特征、心理趋势、倾向、行为、态度、智力、能力和才能;以及 • 任何其他可识别、关联、描述、能够与特定消费者或家庭直接或间接关联或合理关联的信息。个人信息包括但不限于以下内容,只要其能够识别、关联、描述、能够与特定消费者或家庭直接或间接关联或合理关联。
• 可在ISEE文件(等效经济状况指标)中获取和查阅的收入和会计数据。 ISEE 是用于核实申请福利的家庭是否满足某些主观要求以及其经济状况的指标。任何可以通过 ISEE 推断出的特殊类别的数据将不予考虑,也不会明确受到此处理。在可能的情况下,我们会将其隐藏或匿名化。通过用于捐赠/请求电子设备的网站https://pc4u.tech/,还可以收集和处理导航数据(例如,连接到网站的用户使用的计算机的IP地址或域名,URI统一资源标识符表示法中的地址)和其他信息,例如请求的时间,用于向服务器提交请求的方法,响应中获得的文件的大小,指示服务器给出的响应状态的数字代码(成功,错误等),与操作系统和用户IT环境有关的其他参数。可以通过特定的跟踪系统(例如 cookie)收集更多信息。在某些情况下,传输隐含在相同的正常操作中;在其他情况下,只有获得特别同意,跟踪系统才会启动。欲了解更详细信息,请参阅网站上的 cookie 政策。
摘要背景人工智能 (AI) 已成功应用于许多科学领域。在生物医学领域,AI 已经显示出巨大的潜力,例如,在下一代测序数据的解释和临床决策支持系统的设计中。目标然而,在敏感数据上训练 AI 模型引发了对个人参与者隐私的担忧。例如,全基因组关联研究的汇总统计数据可用于确定给定数据集中是否存在个体。这种相当大的隐私风险导致访问基因组和其他生物医学数据受到限制,这不利于协作研究并阻碍了科学进步。因此,人们付出了大量的努力来开发可以从敏感数据中学习同时保护个人隐私的 AI 方法。方法本文概述了生物医学中隐私保护 AI 技术的最新进展。它将最重要的最先进方法置于统一的分类法中,并讨论它们的优势、局限性和未解决的问题。
临时指导:PGLD-10-0924-0020 以下变更将于 2024 年 9 月 30 日对 IRM 10.5.1 生效。10.5.1.6.22 (09-30-2024) 人工智能 (1) 本政策概述了 IRS 使用人工智能 (AI) 的隐私要求和注意事项,适用于 IRS 用户、开发者和 AI 提供商。它将 IRS 隐私原则(从 IRM 10.5.1.3.2)与基于行政命令、财政部指令和相关 IRM 的关键 AI 政策和要求联系起来。注意:有关 IRS 人工智能的总体政策和定义,请参阅 IRM 10.24.1《人工智能 (AI) 治理与原则》,作为新 IRM 10.24.1《人工智能 (AI) 治理与原则》的临时指南发布。(2) 正如 EO 14110《人工智能的安全、可靠和值得信赖的开发和使用》所指出的那样,“人工智能 (AI) 既有巨大的潜力,也有巨大的危险。” 所有 IRS 人员都必须遵守 IRS 隐私原则来管理人工智能使用的前景和危险。(3) IRS 隐私政策是技术中立的,这意味着这些原则适用于任何技术。本政策适用于任何 AI 的设计、开发、获取或使用(以下称为 AI 使用),无论是基于 Web 的在线表格、商用现货 (COTS) 产品或服务、定制 IRS 工具还是任何其他用例。本政策适用于可能不符合 IRS 对 AI 定义的相关技术。AI 或相关技术的示例包括但不限于:
1 .参见 Alan Turing,《计算机器与智能》,59 M IND 236 433, 460 (1950),http://www.jstor.org/stable/2251299?origin=JSTOR-pdf(考虑机器是否能够思考的问题)。2 .参见 Steven Harnad,《思维、机器与图灵:不可区分之不可区分》,9 J.OF L OGIC , L ANGUAGE , & INFO .425 (2000),https://www.jstor.org/stable/40180236?seq=1(将图灵测试描述为对机器是否能够与人类做出不可区分行为的测试)。3 .参见 Max Tegmark,《人工智能的益处与风险》,《未来生命科学技术研究所》,https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/(定义人工智能的一般概念和狭义概念);另请参阅 N AT 。S CI 。& T ECH 。理事会,执行委员会。总统办公室,为人工智能的未来做准备 (2016),第 6 页,https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/micr osites/ostp/NSTC/preparing_for_the_future_of_ai.pdf(提供人工智能概念的替代定义并提出定义人工智能的问题解决方案分类法)。
欧盟的通用数据保护条例 (GDPR)、加州消费者隐私法案 (CCPA) 以及重大数据泄露事件的不断发生,开启了隐私和数据保护问责和意识的新时代,隐私问题不再仅仅局限于隐私领导者的办公室,还引起了董事会、审计和风险委员会、首席执行官、首席信息官、首席风险官、首席信息安全官等 (内部) 的关注,以及客户、立法者、监管机构、倡导者和媒体 (外部) 的关注。各组织已经扩展了其隐私和数据保护计划,以培养客户信任和忠诚度;实现安全的跨境数据传输;并遵守不断发展变化的隐私法律法规。在过去几年中,隐私治理已经成为客户和员工信任的核心商业价值,也是透明度和问责制等核心企业价值的核心。媒体的纷争、外交纠纷和诉讼危机,以及市场、公司和平台的竞争发展,都表明隐私保护不足对企业不利。随着新一轮监管措施即将出台,包括全球隐私立法以及人工智能、数字服务、平台和非个人数据规则,隐私官的职责范围将进一步扩大。