Loading...
机构名称:
¥ 2.0

英国 1、美国 2、中国 3、新加坡 4、日本 5 和澳大利亚 6 等多个政府的战略明确提到了人工智能能力,这些能力已经部署用于改善关键国家基础设施(如交通、医院、能源和供水)的安全性。北约在其 2020 年关于北约未来的报告中也将人工智能确定为保持对对手优势的关键技术(北约,2020 年)。人工智能在国防中的应用几乎是无限的,从支持物流和运输系统到目标识别、战斗模拟、训练和威胁监控。军事规划者越来越期望人工智能能够更快、更果断地击败对手。与其他领域的使用一样,人工智能的潜力也伴随着严重的道德问题,从可能的冲突升级、大规模监视措施的推广和错误信息的传播,到侵犯个人权利和侵犯尊严。如果这些问题得不到解决,将人工智能用于国防目的可能会破坏民主社会的基本价值观和国际稳定(Taddeo,2014b、2019a、b)。本文通过确定伦理原则为人工智能的设计、开发和用于国防目的提供指导,以解决这些问题。这些原则不应被视为国家和国际法律的替代品;相反,它们为在国防领域使用人工智能提供了指导,其方式与现有法规一致。从这个意义上说,提出的原则表明了应该做什么或不应该做什么。

国防人工智能的伦理原则

国防人工智能的伦理原则PDF文件第1页

国防人工智能的伦理原则PDF文件第2页

国防人工智能的伦理原则PDF文件第3页

国防人工智能的伦理原则PDF文件第4页

国防人工智能的伦理原则PDF文件第5页

相关文件推荐