(1)该法规的目的是通过为发展,在市场上置于市场上的置于市场,服务和使用人工智能系统(AI系统)的统一法律框架来改善内部市场的功能包含《欧盟基本权利宪章》(“宪章”),包括民主,法治和环境保护,以防止AI系统在联盟中的有害影响,并支持创新。该法规可确保基于AI的商品和服务的自由流动,跨境,从而阻止成员国对AI系统的开发,营销和使用施加限制,除非该法规明确授权。
英国 • 人工智能(监管)法案(私人议员法案)(由于大选而未进行,但此后将重新提出) • 2024 年 1 月发布的当前政府立场 • 政府对 2024 年 1 月发布的白皮书的回应表明,政府目前不打算引入立法来监管人工智能,但希望监管机构通过现有法律(包括英国 GDPR)来监管人工智能的使用。• 主要反对党表示,如果在大选中取得成功,它将对开发最强大人工智能模型的公司引入具有约束力的监管。
2024年3月,欧盟议会就《人工智能法案》的立法决议达成一致。这是欧盟安全使用人工智能的历史性标志。欧盟的《通用数据保护条例》(GDPR)对个人数据的使用进行了规范,而《人工智能法案》则建立了基于使用人工智能(AI)风险等级的监管体系。此外,该法案为促进尖端人工智能技术的发展奠定了基础,从基础模型,到训练和微调,再到安全部署值得信赖和强大的工具,有助于保持欧洲在人工智能领域的领先地位。《人工智能法案》采用的风险等级体系定义了四个等级:最低,对公民权利的风险极小甚至没有风险,因此仅适用于最佳实践和道德准则;有限,可能存在欺骗用户的真正威胁,因此需要足够的透明度;高,重要的基础设施、教育、就业能力和社会可能面临危险,需要严格遵守法规并持续审查以评估风险;并且不可接受,因为这对公民的社会和身心健康构成了明确的威胁,因此是完全禁止的。不符合这些规则的行为将导致各种处罚,主要是经济处罚。除了法规之外,《人工智能法案》还指导欧盟委员会实施其促进人工智能领域研究和创新的战略。目前,这项战略正在通过“地平线欧洲”(HEU)和“数字欧洲计划”(DEP)来实现,最近又通过启动大型人工智能大挑战赛来实现。该挑战赛旨在发展中小企业的人工智能技术。它包括一项投资计划,为创新项目提供资金,并为这些公司提供欧洲高性能计算联合体(名为人工智能工厂)最先进的高性能计算基础设施。该计划包括 40 亿欧元的公共和私人资金,用于加速开发和采用遵循欧洲公平和平等原则的大型人工智能模型,同时保证其可持续性和高性能。目前,HEU 和 DEP 的工作计划提供了一系列与人工智能相关的主题,从构建基础模型(例如 HORIZON-CL4-2024-HUMAN-03-01)到监管沙盒(DIGITAL-2024-AI-ACT-06-SANDBOX)和大型语言模型(DIGITAL-2024-AI-06-LANGUAGE- 01)。欧盟委员会根据《人工智能法案》创建的另一个重要实施工具是欧盟人工智能办公室。该办公室由欧盟委员会通信网络、内容和技术总司 (DG CNECT) 资助,通过了解该法案的使用潜力和潜在风险,确保该法案的正确实施和执行。这样做是为了确保新技术符合新的人工智能法规以及道德准则。人工智能办公室将制定实践准则,同时促进人工智能合规沙箱的使用,并帮助欧盟组织更好地驾驭这个充满活力和变化的领域。《人工智能法案》为发展强大而值得信赖的人工智能提供了坚实的基础,资金来源支持新技术的进步和部署,同时保护欧盟公民免受其潜在风险的影响。本简报中介绍的内容及其关系以图形方式显示在图 1 中。
此处描述的部分或全部服务可能不适用于 KPMG 审计客户及其关联公司或相关实体。此处提供的所有信息均为一般性信息,并非旨在解决任何特定个人或实体的情况。尽管我们努力提供准确及时的信息,但无法保证此类信息在收到之日是准确的,或将来会继续准确。任何人都不应在未彻底检查特定情况的事实并征求适当的专业建议的情况下根据此类信息采取行动。KPMG 名称和徽标是 KPMG 全球组织独立成员所经许可使用的商标。
《欧盟人工智能法案》(通常简称为《AI 法案》)是欧盟具有里程碑意义的法案,它为人工智能的开发和使用制定了法律法规。《AI 法案》是主要管理机构通过的第一部综合性人工智能法规。欧盟也是数据保护领域的先驱,于 2018 年实施了《通用数据保护条例》(GDPR)2。《AI 法案》的目标是确保人工智能系统的安全,为人工智能发展提供法律框架,并保护公民免受人工智能的潜在风险。《AI 法案》为公司开发合规的人工智能系统提供了资源,并定义了对不安全的人工智能系统实施罚款的法律结构。欧盟委员会于 2021 年 4 月首次提出该法案,经过两年的研讨会、听证会和辩论,该法案于 2023 年 12 月正式通过,涉及来自学术界、工业界、非政府组织和公民的数千名利益相关者 3。尽管之前的草案已于 2021 年发布,但最终文本尚未发布。 4 最终法案包括一些更新,例如对生成式人工智能模型的额外监管,例如
法律实践中,融入人工智能 (AI) 的产品急剧增加。此类工具旨在协助完成广泛的核心法律任务,从搜索和汇总判例到起草文件。但这些工具中使用的大型语言模型容易“产生幻觉”或编造虚假信息,因此在高风险领域使用它们存在风险。最近,某些法律研究提供商宣称检索增强生成 (RAG) 等方法可以“消除”幻觉(Casetext,2023 年)或“避免”幻觉(Thomson Reuters,2023 年),或保证“无幻觉”的法律引用(LexisNexis,2023 年)。由于这些系统的封闭性,系统地评估这些说法具有挑战性。在本文中,我们设计并报告了第一个预先注册的人工智能驱动的法律研究工具的实证评估。我们证明提供商的说法是夸大其词。虽然与通用聊天机器人 (GPT-4) 相比,幻觉有所减少,但我们发现 LexisNexis (Lexis+ AI) 和 Thomson Reuters (Westlaw AI-Assisted Research 和 Ask Practical Law AI) 制作的 AI 研究工具在 17% 到 33% 的时间内都会产生幻觉。我们还记录了系统在响应能力和准确性方面的巨大差异。我们的文章做出了四个关键贡献。这是第一篇评估和报告基于 RAG 的专有法律 AI 工具性能的文章。其次,它引入了一个全面的、预先注册的数据集,用于识别和了解这些系统中的漏洞。第三,它提出了一种区分幻觉和准确法律反应的清晰类型学。最后,它提供了证据来告知法律专业人员在监督和验证 AI 输出方面的责任,这仍然是 AI 负责任地融入法律的一个核心悬而未决的问题。1
人工智能,有时也称为机器智能,是指机器所表现出的智能,而自然智能是人类和动物所表现出的智能。AI 是计算机科学家 John McCarthy 于 1955 年创造的一个总称,定义为“智能机器的科学和工程”。AI 现在是最新的重大游戏规则改变者。通常,AI 系统至少会表现出以下一些人类行为:规划、学习、推理、解决问题、知识表示、感知、语音识别、决策、语言翻译、运动、操纵、智能和创造力。AI 是一个跨学科的综合领域,涵盖计算机科学、心理学、语言学、哲学、神经科学、认知科学、思维科学、信息科学、系统科学和生物科学等众多领域。如今,人工智能以多种形式融入我们的日常生活,例如个人助理、自动化公共交通、航空、电脑游戏、护照检查时的面部识别、虚拟助理的语音识别、无人驾驶汽车、陪伴机器人等。
过去一年,声称开放的生成式人工智能系统急剧增加。但它们到底有多开放?鉴于即将出台的欧盟人工智能法案对开源系统进行了不同的监管,生成式人工智能中什么算作开源的问题将变得尤为重要,迫切需要进行实际的开放性评估。在这里,我们使用了一个基于证据的框架,该框架区分了开放性的 14 个维度,从训练数据集到科学和技术文档,从许可到访问方法。通过调查 45 多个生成式人工智能系统(包括文本和文本到图像),我们发现虽然开源一词被广泛使用,但许多模型充其量只是“开放权重”,许多提供商试图通过隐瞒有关训练和微调数据的信息来逃避科学、法律和监管审查。我们认为,生成式人工智能的开放性必然是复合的(由多个元素组成)和梯度的(以度为单位),并指出依赖访问或许可等单一特征来宣布模型是否开放的风险。基于证据的开放性评估有助于培育生成性人工智能格局,在该格局中,模型可以得到有效监管,模型提供者可以被追究责任,科学家可以仔细审查生成性人工智能,最终用户可以做出明智的决策。
过去一年,声称开放的生成式人工智能系统急剧增加。但它们到底有多开放?鉴于即将出台的欧盟人工智能法案对开源系统进行了不同的监管,生成式人工智能中什么算作开源的问题将变得尤为重要,迫切需要进行实际的开放性评估。在这里,我们使用了一个基于证据的框架,该框架区分了开放性的 14 个维度,从训练数据集到科学和技术文档,从许可到访问方法。通过调查 45 多个生成式人工智能系统(包括文本和文本到图像),我们发现虽然开源一词被广泛使用,但许多模型充其量只是“开放权重”,许多提供商试图通过隐瞒有关训练和微调数据的信息来逃避科学、法律和监管审查。我们认为,生成式人工智能的开放性必然是复合的(由多个元素组成)和梯度的(以度为单位),并指出依赖访问或许可等单一特征来宣布模型是否开放的风险。基于证据的开放性评估有助于培育生成性人工智能格局,在该格局中,模型可以得到有效监管,模型提供者可以被追究责任,科学家可以仔细审查生成性人工智能,最终用户可以做出明智的决策。