详细内容或原文请订阅后点击阅览
达到平衡:缓解与AI相关风险的全球方法
在过去的几年中,现代技术一直在不适合它们的现有法律框架下推动道德界限,从而产生了法律和监管雷区。为了试图打击这种影响,监管机构选择以各种不同的方式进行,增加了全球[...]达到平衡的帖子:减轻与AI相关风险的全球方法首先在Unite.AI上出现。
来源:Unite.AI在过去的几年中,现代技术一直在不适合它们的现有法律框架下推动道德界限,从而产生了法律和监管雷区。为了试图打击这一影响,监管机构选择以各种不同的方式进行各种不同的方式进行,在找不到协议时增加全球紧张局势。
在巴黎的最近一次AI行动峰会中强调了这些调节差异。该事件的最终声明集中在人工智能发展中的包容性和开放性问题上。有趣的是,它仅广泛提及安全性和可信赖性,而没有强调与AI相关的特定风险,例如安全威胁。英国和美国在60个国家起草了该声明的签名中明显缺少,这表明目前在关键国家 /地区目前达成的共识很少。
最终语句 英国和美国应对全球AI风险
AI开发和部署在每个国家 /地区的监管都不同。尽管如此,最适合两个极端之间的位置 - 美国和欧盟(欧盟)的立场。
美国方式:首先创新,然后进行调节
在美国,没有尤其是对AI进行规范的联邦级别法案,而是依靠基于市场的解决方案和自愿指南。但是,AI有一些关键立法,包括《国家AI计划法》,该法案旨在协调联邦AI研究,联邦航空管理局重新授权法和国家标准与技术研究所(NIST)自愿风险管理框架。
安全,安全和值得信赖的人工智能命令 撤销了该行政命令, 零散的自然 缺乏可执行的标准 隐私保护中的空白 将近700件新的AI立法 多个听证会