详细内容或原文请订阅后点击阅览
2025 年人工智能道德和政策的首要问题以及 2026 年的预期
Jamillah Knowles & Digit / Pink Office / 获得 CC-BY 4.0 许可 摘要 2025 年标志着人工智能从测试到部署的关键转变。随着生成系统和代理系统在全球关键领域变得至关重要,这种情况发生了。本专题重点介绍了 2025 年主要的人工智能伦理和政策发展,并以前瞻性的[...]
来源:ΑΙhubJamillah Knowles&Digit/Pink Office/由 CC-BY 4.0 许可
摘要
2025 年标志着人工智能的关键转变——从测试到部署。随着生成系统和代理系统在全球关键领域变得至关重要,这种情况发生了。本专题重点介绍了 2025 年人工智能伦理和政策的主要发展,并以前瞻性视角总结了可能影响 2026 年的伦理和政策挑战。
全球人工智能监管进入执行阶段
2025 年的一个重大变化是过去几年制定的人工智能原则和法规的执行。在美国,特朗普推翻了拜登 2023 年关于安全、可靠和值得信赖的人工智能的行政命令,该命令最初扩大了模型的安全要求,并增加了开发人员的报告职责。这是对人工智能态度的真正转变,因为美国优先考虑放松管制和快速创新,而不是负责任的人工智能(Squire Patton Boggs,2025)。这可能会导致与采取更严厉措施的欧盟产生摩擦。 6 月,欧盟人工智能法案开始要求组织按风险级别对系统进行分类、制定监督计划、进行红队测试并发布透明度信息(欧盟委员会,2024 年)。高风险系统,例如用于就业、信贷、教育和公共服务的系统,现在面临严格的合格评定和持续的上市后监控。 ACM 美国技术政策委员会 (ACM USTPC, 2025) 发布了几项官方建议,提倡明确的文档实践、严格的评估标准和有效的监督,以确保公共问责制。
人工智能安全、一致性和评估标准成熟
间隙
代理人工智能和自主决策系统
Vibe 编码
错误信息、深度伪造和数字信任
儿童与人工智能
数据权利和训练数据治理
系统性风险和关键基础设施
劳动力转型
环境影响和规模道德
展望2026年
参考文献
标签:
,
