2022 年 9 月 28 日,欧盟委员会发布了两项新提案,旨在制定适合数字时代的责任规则,人工智能 (AI) 系统将在社会中占据普遍地位。通过对《产品责任指令》(PLD) 和新的《人工智能责任指令》(AILD) 的拟议修订,委员会旨在更新有关制造商对有缺陷商品(从医疗设备到智能技术)的严格责任的法律。修订后的规则旨在为企业提供更大的法律保障,以便他们能够投资开发新的尖端产品。与此同时,委员会旨在加强人们在有缺陷的商品(包括数字商品)对他们造成伤害时获得公正赔偿的地位。这两项提案都旨在协调和加强产品责任制度,填补 1985 年通过的产品责任指令留下的空白,该指令目前仍在规范人工智能系统责任。在现行制度下,由于法律措辞方式的原因,很难获得因有缺陷的人工智能系统造成的损害的赔偿。因此,PLD 提案和 AILD 建立了两个急需的新责任制度。
从1988年的最高法院裁决开始于Peavler诉Monroe County委员会案,N.E.2d 40(Ind。1988年),印第安纳州法院已经从印第安纳州侵权索赔法所提供的法定豁免权范围内撤退,至少在涉及签署,标记,维护或建设中疏忽指控的道路索赔的背景下。 对法定免疫力的广泛解释已经开始侵蚀,因为法院在道路或人行道上对“执行法律”的免疫受到限制或对冰雪的限制,* 2对于非政府雇员的行为或不作为诉讼的行为或诉求的诉讼或诉讼的诉求是4:限制了免疫力作为侵权索赔的辩护。1988年),印第安纳州法院已经从印第安纳州侵权索赔法所提供的法定豁免权范围内撤退,至少在涉及签署,标记,维护或建设中疏忽指控的道路索赔的背景下。对法定免疫力的广泛解释已经开始侵蚀,因为法院在道路或人行道上对“执行法律”的免疫受到限制或对冰雪的限制,* 2对于非政府雇员的行为或不作为诉讼的行为或诉求的诉讼或诉讼的诉求是4:限制了免疫力作为侵权索赔的辩护。
ACCA道德与行为守则(《守则》)列出了有关专业会计师的规则,以及他们如何与客户签约或与第三方打交道。该法规包含在《守则》的B9(会计师和审计师的专业责任)中。该代码发表在ACCA规则手册上的Accaglobal.com/rulebook上。此Factsheet没有监管状态。仅出于指导目的而发布,如果本FACTSHEET的内容与ACCA规则手册的内容之间发生任何冲突,则后者应始终优先。因此,纪念不应将此事实说明视为熟悉适当法规的替代品,或者在必要时获得有关特定情况的特定建议。
我们得到了德里国立法学大学的慷慨支持,使该报告成为可能。因此,沟通治理中心(CCG)要感谢副校长(I/C)教授(博士)Harpreet Kaur和注册官(I/C)教授(博士)Anupama Goel的指导。CCG还要感谢我们的教师顾问Daniel Mathew博士的持续指导和指导。没有弗里德里希·瑙曼(Friedrich Naumann)自由基金会(South Asia)提供的支持,这份报告将不可能。我们感谢从数据治理网络及其审阅者那里收到的评论。CCG还要感谢Faiza Rahman和Shashank Mohan的评论和评论,以及Jhalak M. Kakkar和Smitha Krishna Prasad促进了该报告。我们感谢德里国立法学大学的奥西卡·纳亚克(Oshika Nayak)为本报告提供了宝贵的研究援助。特别感谢始终且经历的苏曼·尼迪(Suman Negi)和preeti bhandari对我们在CCG所做的所有工作的无休止的支持。最后,我们还要感谢CCG的所有支持报告的方式。
史蒂芬·霍金曾说:“人工智能的全面发展可能意味着人类的灭亡。人工智能将自行发展,并以越来越快的速度自我重新设计。人类受到缓慢的生物进化的限制,无法竞争,最终将被取代。”在过去的一个世纪里,作为一个文明,我们已经走了很远。我们不断尝试技术并快速创新。后代会为此感谢我们吗?历史告诉我们,每一项技术进步都是通过法律问题实现的。我们的现代技术时代将面临大量此类问题,这些问题源于我们所谓的“人工智能”。关于人工智能驱动的数字时代的事实已为人所熟知,但仍然令人震惊。由于人工智能在高风险领域的扩散,设计和管理人工智能的压力越来越大,要求其负责、公平和透明。我们如何实现以及通过哪种框架实现是本期讨论的核心问题之一。研究认为,应特别重视将人工智能视为自主的法律人格、独立的法律主体和控制主体。有些问题是传统问题的版本,例如半自动或自动驾驶汽车碰撞的侵权责任。即使解决了这些法律问题,仍然需要面对惩罚问题。到 2040 年,甚至有迹象表明,复杂的机器人将继续执行世界上大部分犯罪。因此,本研究将指导人工智能和法律行业如何考虑伦理和道德困境。在人权和机器人平等的情况下,我们遇到了当前立法基础设施的问题,以及缺乏有效的监管机制。
人工智能(以下简称“AI”)越来越多地出现在消费者的日常生活中,预计将为他们带来诸多好处。它可以为新产品和服务提供动力,帮助让日常生活变得更轻松、更轻松,例如通过个性化服务、增强现实应用、有助于更快检测疾病的人工智能医疗工具或自动驾驶汽车。然而,人工智能的广泛使用也给消费者带来了重大挑战和风险。其中一个关键问题是,如果出现问题,消费者因人工智能系统而遭受损失,谁来承担责任。由于人工智能的特殊性,例如其复杂性、不透明性、自主性,以及其生命周期中涉及的参与者数量,消费者将很难就人工智能系统造成的任何损害索取赔偿。消费者可能很难识别人工智能系统造成的损害,例如,由于人工智能系统的偏见标准而拒绝以较低的价格投保,消费者看不到这一点。消费者甚至可能不知道人工智能系统在特定决策中发挥了作用,并且是造成损害的原因。现行的欧盟产品责任指令 1(以下简称“PLD”)不适合应对包括人工智能在内的新技术带来的挑战。该指令于 1985 年首次通过,当时市场上的产品与今天的产品截然不同。为了解决这些问题,欧盟委员会于 2022 年 9 月发布了两项提案,以使欧盟责任规则适应数字环境:一项是修订产品责任指令 2 的提案(以下简称“PLD 提案”),另一项是使国家责任规则适应人工智能 3 带来的挑战的提案(以下简称“AILD 提案”)。BEUC 正在两份单独的立场文件中讨论这两个提案。本文重点介绍 AILD 提案。我们对 PLD 提案的立场可以在此处阅读。在这两份立场文件中,我们都提出了几项政策建议,以确保这两个提案创建一个连贯的法律框架,为消费者提供高水平的保护。
摘要:人工智能(以下简称AI)如今已成为几乎所有科学分支不可或缺的一部分。AI的自我学习和自我发展能力是这种新形态与人类智能竞争并做出与人类同等行为的特性。在这方面,作者旨在确定是否可以对AI适用刑事责任,因为后者很可能在未来被认定为法律关系的主体。基于大量的研究和实例,作者得出以下结论:AI从根本上来说有能力承担刑事责任;此外,它能够在强制措施的影响下纠正自己的行为。 1 引言 随着人工智能的参与,公共关系迅速发展,形成了重大的犯罪风险:由于其物理特性,在信息和电信网络中访问的信息面临来自人工智能的非法影响的最大威胁,关键信息基础设施对象的软件和电子信息系统目前没有手段和方法免受此类控制论实体的攻击,这显著地实现了关于人工智能地位的相对法律规制的科学立场的发展以及针对可能来自人工智能的攻击的保护法律模型的发展。在我们的研究中,我们依赖国家立法的主题基础(例如俄罗斯联邦政府法案的规定)、国内外专家在不同时期发表的科学著作、人工智能的综合研究、一般科学著作以及媒体传播的信息。
Christian List 提出了一个基于责任差距的论点,即“监管机构应允许在高风险环境中使用自主人工智能 [AI],前提是它们被设计为道德……代理人和/或存在某种责任转移协议”(2021:1213)。以下内容认为,对“道德”人工智能的要求过于繁重,责任转移协议无法提供与其在群体环境中使用平行的合理“后盾”(1215)。协议只有通过应用独立合理的群体责任归因规范才能合理地填补责任差距,这样人工智能就不会面临独特的监管规范。激发 List 的条件 List 对其条件的论证主要基于避免责任差距的需要。简而言之,需要确保有人对通常归因于人类行为的伤害负责。私法通过要求某些团体问责机制来填补团体代理案件中的责任空白。List 的条件是作为推论提供的。根据 List,团体和人工智能都表现出不同的有意代理。这是它们之间的“主要相似之处”(1221)。像国家、公司或企业这样的团体和真正自主的人工智能满足代理的基本条件,即表征(例如,信念)和动机(例如,愿望)状态的结合以及采取行动的能力(1219)。他们可以采取我们通常认为是人类故意采取的行动,但这些行动不能合理地归因于特定的人类决定。“美国”可以参与与“俄罗斯”的战略互动,而这些互动并非完全归因于他们的高管(1215-1216)。同样,例如,自适应机器学习医疗工具可以执行无法归因于任何人的操作。它们可以通过根据现实世界数据改变性能,以开发人员无法预测的方式提供更准确的医疗状况诊断。List 认为,如果群体和人工智能的行为不能完全归因于个人,则存在责任差距的风险。继 Johannes Himmelreich (2019) 之后,List 认为,如果一个实体(例如,公司、人工智能)执行的行为如果由人类执行则会触发责任(例如,漏油、误诊治疗),但没有人可以对该行为承担全部责任(例如,公司/人工智能不能承担责任,个人也不对其行为承担全部责任),则会出现差距。这样的个人只对他们发挥规范性重要作用(例如,制定、授权或设计)的相关行为负责,并且只在他们的角色有助于做出行动决定的范围内负责。即使运营商、所有者、监管者、制造商等都勤勉行事,人工智能也可能造成危害。让任何人对所有危害负责是不公平的(1223、1225-1226)。就像在团体代理案件中一样,这似乎是不可避免的:拥有不完全归因于人类的代理权就是拥有团体代理权的含义,类似的东西应该告诉我们如何理解不同于其用户/创造者的“完全自主”人工智能。1 高风险案件中的责任差距(“根据社会标准定义”,但包括许多军事、医疗和金融案件(1228-1230))允许“不负责任的”决策,并可能导致受害者无法找到适当的补救措施(1239)。List 主张对“道德”人工智能进行法律要求,使其适合“承担责任”(1239),以避免此类结果。