在思考人工智能的政策和监管响应时,基于风险的方法已很常见。2023 年 12 月,欧洲议会和理事会就《人工智能法案》达成了一项临时协议,该法案将根据人工智能的潜在风险和影响程度制定规则,禁止某些应用,并对被视为高风险的应用(例如工作场所的许多用途)施加义务。在美国,2023 年 10 月发布的《关于安全、可靠和值得信赖的人工智能的行政命令》指示“采取有史以来最全面的行动,保护美国人免受人工智能系统的潜在风险”,例如制定原则和最佳实践,以减轻危害并最大限度地发挥人工智能对工人的益处。2023 年 11 月,出席布莱切利园(英国)人工智能安全峰会的国家发表了《布莱切利宣言》,重点是识别人工智能安全风险和制定基于风险的政策。在许多情况下,人工智能并不是在监管真空中运作的,已经有法律规范其使用和影响。然而,现有的监管和政策框架存在差距,需要采取紧急政策行动。
主要关键词