2021 年 4 月 21 日,欧盟委员会向欧盟共同立法者欧洲议会 (EP) 和欧盟理事会 (理事会) 提议了这项期待已久的新法规,以协调适用于欧洲内部市场的人工智能系统规则。《人工智能法案》提案的目标之一是通过一套符合欧盟价值观的人工智能开发、营销和使用的明确规则来增强内部市场的运作。为此,该提案在欧盟法律中引入了人工智能系统的技术中立定义,并采用基于风险的监管方法,每当人工智能系统可能对安全和基本权利构成高风险时,就会施加具体义务。更具体地说,这些义务是根据人工智能带来的风险水平 (最小风险、有限风险、高风险和不可接受的风险) 量身定制的。
虽然没有专门适用于人工智能的立法,但 2016 年 10 月 7 日颁布的 2016-1321 号法律旨在促进创新和鼓励数字经济发展,并授权法国数据保护局 (CNIL) 研究相关技术发展引发的道德问题和社会问题。自 2017 年以来,CNIL 一直积极参与确定与人工智能相关的道德和法律问题,监督涉及人工智能使用的案件,发布工具和资源以提高对人工智能的理解,并作为这一使命的一部分管理相关风险。此外,CNIL 可能会继续在法国的人工智能监管中发挥主导作用,因为法国最高行政法院建议,在欧盟人工智能法案通过后,CNIL 继续成为人工智能的主要监管机构。
摘要 人工智能(AI)是一种可以根据某些电子信息自动执行操作的技术。人工智能已经发展并广泛应用于印度尼西亚的多种工作,例如银行业、电子商务、医疗保健等。本文旨在使用规范研究方法结合法定和概念方法研究印度尼西亚有关人工智能的法律法规。这项研究的结果表明,人工智能可以构建为ITE法中规定的电子代理,但该法规仍然是一般性的,不涵盖人工智能的某些方面,例如道德、数据保护和问责制。本文还确定了使用人工智能将产生的一些法律挑战,例如确定责任、消费者保护和人权保护。除此之外,本文还提供了可以从使用人工智能中利用的几个法律机会,例如增加创新、效率和福利。本文建议印度尼西亚政府立即起草一项专门规范人工智能的法律,全面和适度地规范人工智能的法律方面,以及
该系统采用分级监管方式,对那些被认为构成“系统性风险”的系统施加更实质性的义务。这些义务包括报告能源消耗、进行红队演习、签署行为准则以及确保充分的网络安全控制。然而,基础模型的监管一直是争论的焦点(一些欧盟成员国完全反对),规则的确切范围和内容仍不明确。例如,基础模型的技术基准和合格门槛存在不确定性,预计解决方案将取决于委员会通过二级立法。此外,红队的概念对公司来说仍然不清楚,因为当前文本中没有进一步的解释。
尽管《欧盟人工智能法案》在商业和组织实践中规范算法和人工智能的讨论和准备方面处于领先地位,但这可以被认为是一种短视的做法。尽管如此,《欧盟人工智能法案》、《DMA》和《DSA》的综合影响可能会非常巨大。这三项强有力的立法将协同工作,确保公司不会滥用人工智能或不受控制地利用创新技术(有意或无意地)造成危害,同时也标准化人工智能治理中的风险管理方法。虽然每一项立法都以不同的目标和执行机制为基础,但透明度是一个不容忽视的核心主题。归根结底,每一项立法都要求符合特定标准的公司和组织进行独立审计、合格评定和/或第三方审计,以遵守规定并避免可能出现的前所未有的罚款。
• 生物特征识别系统(尚未被“不可接受的风险”禁止的系统); • 关键基础设施(例如公用事业的供应)。• 教育和职业培训(例如考试自动评分或排除); • 就业、工人管理和自营职业机会(例如自动招聘和申请分类); • 获得和享受基本私人和公共服务(例如福利制度、信贷、保险); • 可能干涉基本权利的执法系统(例如针对潜在罪犯的自动风险评分、深度伪造检测软件、证据可靠性评分); • 移民、庇护和边境管制管理(例如旅行证件真实性的验证;签证和庇护申请审查); • 司法管理和民主进程(例如协助司法当局的法律解释工具)。
• 目前,我们既没有新的《人工智能法案》合并文本,也没有最终解决最近协议的官方声明。本文基于各种报告,其中一些是第一手资料,一些来自二手资料,涉及商定的条款。谨慎对待这些信息很重要,因为其中一些报告甚至提供了相互矛盾的细节。• 预计未来几周将有进一步的发展,特别是将政治协议翻译成最终文本。从现在到 2024 年 2 月,计划进行几次技术三方谈判。这些谈判以及随后的律师语言学家的工作预计将对最近在政治层面商定的关键点进行微调,并可能导致对某些条款的进一步修订(有关更多详细信息,请参阅第 3 节)。
请注意:本文仅作为一般性、非约束性信息,因此不能替代详细研究或专家建议或信息。尽管本文经过精心准备,但并不保证其事实准确性、完整性和/或时效性。特别是,本出版物不能考虑个案的具体情况。因此,读者对其使用负全部责任。EY 或 EY Law Austria* — Pelzmann Gall Größ Rechtsanwälte GmbH 不承担任何责任。如有任何具体问题,应咨询适当的律师。
针对高风险系统的规定,即h.那些用于安全关键应用或可能对一个或多个人的基本权利产生重大影响的技术构成了法规的核心,除了风险管理、数据治理、技术文档、透明度、记录保存义务、人工监督和准确性要求外,还可能需要外部测试机构的认证。根据目前的状况,只有当人工智能系统属于某种产品的一部分,且该产品因行业特定要求而必须由第三方进行合法测试时,才有必要进行此类第三方合格评定。其中包括适用于医疗设备。 《欧盟人工智能法案》附件中明确描述了所有被视为高风险的用例,其中包括关键基础设施、教育或执法目的的人工智能。
摘要:人工智能 (AI) 中的可解释性对于确保透明度、问责制和风险缓解至关重要,从而解决信息系统使用的数字责任、社会、道德和生态方面的问题。欧盟 (EU) 将通过《人工智能法案》对人工智能进行监管。该法规引入了可解释人工智能 (XAI) 的要求。本文研究了哪些 XAI 要求受到监管以及哪些指标可用于衡量合规性。为此,分析了欧洲议会和理事会的法律文本,以确定 XAI 要求。此外,还收集了 XAI 分类法和指标。结果表明,《人工智能法案》为可解释性提供了抽象的规定,因此很难定义实现可解释性的具体指标。作为一种解决方案,我们提出了一种衡量合规性的社会技术指标分类。进一步的研究应该分析即将到来的可解释性要求,以使人工智能可验证并最大限度地降低人工智能带来的风险。