本报告由拉丁美洲和加勒比经济委员会 (ECLAC) 生产、生产力和管理司顾问 Armando Guio 编写,由该司高级经济事务官 Sebastián Rovira 和经济事务官 Alejandro Patiño 以及德国国际合作机构 (GIZ) 数字化转型顾问 Pascal Koenig 和 Franziska Seiffarth 协调。GIZ Kompetenzcenter Digitale Gesellschaft(数字社会能力中心)委托并资助了该报告,该报告是在 ECLAC 和 GIZ 实施的“区域一体化数字化转型”项目下编写的,是 ECLAC 与德国联邦经济合作与发展部 (BMZ)/GIZ 合作计划的一部分。
TGA监管沙箱使企业和组织可以在监管监督下测试其自主系统解决方案,服务或业务模型。目的是为批准的申请人提供空间和准则,以在封闭的验证地面环境或可以在特定时间窗口进行调整或放松法规的开放道路上进行测试,以适应可能不适合当前监管框架的新技术和方法。这有助于监管机构了解新的自动驾驶汽车的工作方式以及现有法律中可能需要进行哪些调整,以促进其安全有效地融入市场。
• 复杂的社会挑战需要创新的解决方案。瑞典面临着重大的社会挑战,包括气候变化和人口变化,其中新技术和现有技术通常被视为应对这些挑战的关键工具。人工智能 (AI)、物联网 (IoT) 和其他创新技术提供了促进安全、健康、福利和增长的新工具。 • 技术发展的速度挑战了社会的工作方式。为了解决快速的技术发展和缓慢的监管流程之间的速度问题,使用监管沙盒可能是一种重要的方法。对于这种工作方法的构成,没有普遍接受的定义,但核心是创新者和监管机构等共同努力,将监管框架解释和应用于创新产品和服务。监管沙盒旨在提高法律确定性,促进创新,并为初创企业和小企业等提供便利。 • 2023 年夏季和秋季,瑞典隐私保护局 (IMY) 在其监管沙盒内进行了第二次试点。通过监管沙盒,IMY 可以深入指导如何解释和应用数据保护框架。这种工作方法的特点是,IMY 与项目参与者一起确定指导应关注的法律问题。然后,在几个月内,以研讨会或其他对话形式多次口头提供指导。这项工作的结果是一份公开报告,其中总结了推理和评估,以便让更广泛的受众学习。 • “使用物联网技术在公共环境中进行安全测量”项目是 IMY 的第二个试点项目。该项目的参与者包括斯德哥尔摩市交通局 (Sw. Trafikkontoret i Stockholms stad )、瑞典物联网和 Kista Science City AB。该项目是关于交通局希望使用 LiDAR 传感器以更统一和系统化的方式收集有关访问公共广场的女性、男性和儿童比例的数据。安全调查显示,女性会避开她们认为不安全的地方。因此,假设妇女和儿童访问的地方被认为比其他地方更安全。通过获得哪些群体访问特定地点的代表性概况,交通办公室可以规划和采取加强安全的措施,以促进妇女和儿童的安全。
监管试验工具用于在现有监管结构之外测试新的经济、制度和技术方法以及法律规定。本报告重点介绍监管沙盒,即监管机构让企业测试挑战现有法律框架的创新产品或服务。参与的企业可获得特定法律规定或合规流程的豁免,以进行创新。本报告介绍了金融科技监管沙盒的经验教训及其积极影响,例如促进风险资本对金融科技初创企业的投资。它涵盖了实施监管沙盒及其测试流程所涉及的挑战和风险。本报告介绍了人工智能监管沙盒的政策考虑因素,包括机构跨学科合作以及在监管机构内建立人工智能专业知识的必要性。研究结果强调了监管互操作性的必要性以及贸易政策可以发挥的作用。最后,它讨论了确定沙盒资格和评估试验的综合标准的必要性,以及沙盒对创新和竞争的潜在影响。
类别 国家(项目数量) 当地能源 • 能源共享、集体自用和能源社区 巴西(6)、佛罗里达州(1)、英国(2)、挪威(1)、西澳大利亚(2) • 能源共享,包括动态网络关税 西澳大利亚(3)、荷兰(5)、挪威(1) • 能源共享,包括动态网络关税和网络运营 荷兰(9) • 点对点交易 英国(5) • 微电网中的消费者权利 英国(1) 电力市场的灵活参与 • 批发市场 法国(1) • 平衡市场 英国(2)、法国(1)、挪威(3) 配电网关税 • 替代电网连接费 英国(1) • 动态网络使用关税 法国(1)、挪威(3) 连接至电网 • 技术解决方案 法国(2) • 灵活性解决方案 法国(4) 连接至天然气网络 • 合成甲烷 法国(17) • 灵活性解决方案 法国(1)
人工智能 (AI) 对实现可持续发展目标 (SDG) 至关重要。它既可以加快实现可持续发展目标的步伐,也可以造成重大障碍,因为它有可能对弱势群体产生固有的偏见和风险。因此,需要对人工智能进行监管,以保护公民免受风险的影响——但不能以妨碍创新的方式进行。人工智能监管沙盒(以下简称 AI 沙盒)可以成为一种有前途的解决方案,既可以监管人工智能,又不会损害创新。发展中国家和欠发达国家可以遵循七步路线图来启动 AI 沙盒:制定国家 AI 政策/战略、建立专门的 AI 监管机构、升级现有的消费者保护和数据保护框架、起草沙盒框架、开发测试协议和数据集、启动沙盒和第一批沙盒、退出和报告。联合国可持续发展目标科学、技术和创新论坛(STI 论坛)支持的全球合作可能会成为发展中国家和欠发达国家实施 AI 沙盒的催化剂。
人工智能 (AI) 技术在我们知识的极限或超出范围的情况下挑战道德选择。技术的发展不仅比我们的监管速度更快,而且比我们的想象更快。在越来越多的关于人工智能和伦理的文献中,为负责任的人工智能创建框架的斗争得到了深入讨论。在欧盟人工智能法案的等待中,实际上与欧盟人工智能法案平行,保护基本权利以及以人为本、合乎道德和负责任地使用人工智能技术是一项核心目标 [ 1 , 2 ],自下而上解决人工智能和伦理问题的举措正在蓬勃发展。有人呼吁将道德作为人工智能教育的核心 [ 3 ];为人工智能开发者引入誓言,与医学中的希波克拉底誓言一致 [ 4 ];并建立约束公司行善的行为准则 [ 5 , 6 ]。此外,有人呼吁通过政策制定者引入的监管沙盒等机制,实现多方利益相关者的协调
虽然没有统一的定义,但监管沙盒通常是指允许企业在监管机构的监督下在有限时间内测试和试验新的创新产品、服务或业务的监管工具。因此,监管沙盒具有双重作用:1)促进商业学习,即在现实环境中开发和测试创新;2)支持监管学习,即在监管机构的监督下,制定实验性法律制度,指导和支持企业开展创新活动。在实践中,该方法旨在在受控风险和监管框架内实现实验性创新,并提高监管机构对新技术的理解。1
数字技术和数据释放了新的潜力,颠覆了整个行业。然而,数字化创新产品和商业模式通常与传统市场有很大不同,在某些情况下,它们与现有的监管框架不太契合。作为回应,政策制定者正在越来越多地进行试验。开发促进政策灵活应用或执行的机制的一种方法是使用监管“沙盒”,这可能对某些类型的数字化创新特别有用。本政策说明讨论了监管沙盒的出现,分析了共同特征,确定了潜在的好处和挑战,并考虑了经合组织及其他地区多个受监管行业的例子。
CIPL 对欧盟委员会关于《人工智能法案》草案的咨询的回应 CIPL 1 欢迎就欧盟委员会关于《欧洲人工智能法案》2(“AI 法案”或“法案”)的提案进行咨询,以将其纳入欧盟立法程序。CIPL 很高兴看到《人工智能法案》采纳了 CIPL 关于采用基于风险的方法监管欧盟人工智能的文件中提出的几项建议。3 这些建议旨在培养对人工智能的信任,而不会妨碍其负责任的发展。特别是,CIPL 欢迎该法案基于风险的方法,该方法将适用于高风险的人工智能用例,而不会监管人工智能技术本身或整个行业。CIPL 还欢迎拟议使用统一标准和行业自我评估产品符合性,因为这些机制已被证明能够成功推动创新并在欧盟市场开发安全可信的技术。CIPL 还欢迎旨在支持创新的措施,特别是通过为监管沙盒提供法定基础。最后,CIPL 很高兴看到《人工智能法案》中概述的一些要求与一些现有的行业惯例相一致,这些惯例为确保负责任地开发和使用人工智能设定了高标准。4 然而,CIPL 遗憾的是,《人工智能法案》没有充分考虑到一些必要条件,例如提供基于结果的规则;明确允许组织根据人工智能系统的风险和收益来调整对要求的遵守情况;奖励和鼓励负责任的人工智能实践;利用监管沙盒的经验教训;并澄清《人工智能法案》的监督和执行条款也应基于风险。CIPL 重申,要使《人工智能法案》有效地保护基本权利,同时也为欧盟创新的新时代奠定基础,它需要足够灵活以适应未来的技术。此外,该法案不能过于严格,以免抑制包括公共卫生或环境在内的一系列行业和部门对人工智能的宝贵和有益的创新和使用。最后,《人工智能法案》将受益于有针对性的调整,以更好地明确人工智能提供者、部署者和用户的责任平衡,特别是对于通用人工智能和开源人工智能模型。