人工智能和供应链——同时增加消费者权利和获得司法公正的机会。值得注意的是,产品的定义扩展到包括软件和数字制造文件,而严格责任现在也适用于软件更新和人工智能 (AI) 的缺陷。缺陷的定义也扩展到包括与安全相关的网络安全要求和软件更新。• 总的来说,这些变化将在未来带来非常不同的产品责任和诉讼环境。消费者
1欧洲议会研究服务对AILD影响评估(IA)的初步评估证实了没有明确法律差距的证据。指出,IA缺乏对AILD与PLD等其他计划之间的相互作用的明确性。
2022 年 9 月 28 日,欧盟委员会发布了两项新提案,旨在制定适合数字时代的责任规则,人工智能 (AI) 系统将在社会中占据普遍地位。通过对《产品责任指令》(PLD) 和新的《人工智能责任指令》(AILD) 的拟议修订,委员会旨在更新有关制造商对有缺陷商品(从医疗设备到智能技术)的严格责任的法律。修订后的规则旨在为企业提供更大的法律保障,以便他们能够投资开发新的尖端产品。与此同时,委员会旨在加强人们在有缺陷的商品(包括数字商品)对他们造成伤害时获得公正赔偿的地位。这两项提案都旨在协调和加强产品责任制度,填补 1985 年通过的产品责任指令留下的空白,该指令目前仍在规范人工智能系统责任。在现行制度下,由于法律措辞方式的原因,很难获得因有缺陷的人工智能系统造成的损害的赔偿。因此,PLD 提案和 AILD 建立了两个急需的新责任制度。
人工智能(以下简称“AI”)越来越多地出现在消费者的日常生活中,预计将为他们带来诸多好处。它可以为新产品和服务提供动力,帮助让日常生活变得更轻松、更轻松,例如通过个性化服务、增强现实应用、有助于更快检测疾病的人工智能医疗工具或自动驾驶汽车。然而,人工智能的广泛使用也给消费者带来了重大挑战和风险。其中一个关键问题是,如果出现问题,消费者因人工智能系统而遭受损失,谁来承担责任。由于人工智能的特殊性,例如其复杂性、不透明性、自主性,以及其生命周期中涉及的参与者数量,消费者将很难就人工智能系统造成的任何损害索取赔偿。消费者可能很难识别人工智能系统造成的损害,例如,由于人工智能系统的偏见标准而拒绝以较低的价格投保,消费者看不到这一点。消费者甚至可能不知道人工智能系统在特定决策中发挥了作用,并且是造成损害的原因。现行的欧盟产品责任指令 1(以下简称“PLD”)不适合应对包括人工智能在内的新技术带来的挑战。该指令于 1985 年首次通过,当时市场上的产品与今天的产品截然不同。为了解决这些问题,欧盟委员会于 2022 年 9 月发布了两项提案,以使欧盟责任规则适应数字环境:一项是修订产品责任指令 2 的提案(以下简称“PLD 提案”),另一项是使国家责任规则适应人工智能 3 带来的挑战的提案(以下简称“AILD 提案”)。BEUC 正在两份单独的立场文件中讨论这两个提案。本文重点介绍 AILD 提案。我们对 PLD 提案的立场可以在此处阅读。在这两份立场文件中,我们都提出了几项政策建议,以确保这两个提案创建一个连贯的法律框架,为消费者提供高水平的保护。
人工智能(AI)责任在全球和欧盟的十字路口处于十字路口。虽然从数据保护到非歧视的几项现有法律,对某些类型的AI易于危害确定责任,AI ACT和修订后的产品责任指令(PLD)是欧盟级别上的前两个法律工具,专门针对整个AI价值链中的AI系统实施全面的综合义务。在此背景下,欧洲委员会与PLD修订一起提出的人工智能责任指令(AILD)面临着关于它如何适应这个新颖的监管框架的一些挑战。无疑,AI具有从癌症筛查到欺诈检测和预防事故的巨大潜力,但也带来风险。但是,PLD并未充分涵盖广泛的AI特异性风险,尤其是与生成AI有关的风险,例如歧视和侵犯人格权利的风险。
两项新提出的指令影响了欧盟的人工智能责任:产品责任指令(PLD)和人工智能责任指令(AILD)。虽然这些拟议的指令为人工智能造成的伤害提供了一些统一的责任规则,但它们未能完全实现欧盟的目标,即为人工智能驱动的商品和服务造成的伤害的责任提供明确性和统一性。相反,这些指令为一些黑箱医疗人工智能系统造成的伤害留下了潜在的责任空白,这些系统使用不透明和复杂的推理来提供医疗决策和/或建议。无论是根据欧盟成员国的严格责任法还是基于过错的责任法,患者可能无法成功起诉制造商或医疗保健提供者因这些黑箱医疗人工智能系统造成的某些伤害。由于拟议的指令未能解决这些潜在的责任空白,制造商和医疗保健提供者可能难以预测与创建和/或使用一些潜在有益的黑箱医疗人工智能系统相关的责任风险。