我们不能将武器控制权交给人工智能

我看着联合国代表们讨论无需人类启动即可发射的基于人工智能的武器。人类不能被排除在决策之外

来源:科学美国人

想象一下,如果武器没有人类来决定何时发射或扣动扳机。想象一下,如果武器由人类编程来识别人类目标,但随后需要扫描其内部数据库来决定一组物理特征是否意味着一个人是朋友还是敌人。当人类犯错并向错误的目标开火时,抗议声可能震耳欲聋,惩罚也可能很严厉。但是,如果一台被编程来控制武器的计算机做出了决定性的开火决定,而这个决定是错误的,我们会如何反应,又该让谁来负责呢?

朋友还是敌人 而这个决定是错误的

这不是电影;这些都是代表们在四月份于维也纳举行的自主武器系统会议上讨论的问题。在这个以华尔兹闻名的古典欧洲城市中,人们在接孩子放学和喝咖啡,专家演讲者坐在特殊的高级小组中,手拿麦克风,讨论一种非常现实的可能性,即开发和使用可以独立判断谁生谁死的机器可能很快就会走得太远,无法挽回。

自主武器系统会议

“这是我们这一代的‘奥本海默时刻’,”奥地利联邦欧洲和国际事务部长亚历山大·沙伦伯格说,“我们不能让这一时刻过去而不采取行动,现在是就确保人类控制的国际规则和规范达成一致的时候了。”

“这是我们这一代的‘奥本海默时刻’,”亚历山大·沙伦伯格说,

关于支持科学新闻

如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻。通过购买订阅,您将帮助确保有关塑造当今世界的发现和想法的有影响力的故事的未来。

订阅 一场酝酿中的冷战 严重威胁 自主武器加入其中 真正的杀手机器人 无人驾驶和潜水无人机 反车辆和反步兵地雷 薰衣草 “阻止杀手机器人”联盟