人工智能武器在战争中是危险的。但说他们不能承担责任就没有抓住要点

上个月在联合国安理会的一次演讲中,澳大利亚外交部长黄英贤将矛头指向了人工智能 (AI)。

来源:英国物理学家网首页
图片来源:Pexels 的 Sami TÜRK

上个月在联合国安理会的一次演讲中,澳大利亚外交部长黄英贤将矛头指向了人工智能 (AI)。

瞄准人工智能

虽然她表示这项技术在健康和教育等领域“预示着非凡的前景”,但她还表示,它在核武器和无人系统中的潜在用途对人类的未来构成了挑战:“核战争迄今为止一直受到人类判断的限制。受到承担责任的领导人和人类良心的限制。人工智能没有这样的担忧,也不能被追究责任。这些武器有可能改变战争本身,并且有可能在没有警告的情况下升级。”

核武器

这种观点——人工智能战争构成了独特的威胁——经常出现在公众呼吁保护这项技术的呼声中。但它因对技术和战争的各种误传而蒙上阴影。

功能

这就提出了一个问题:人工智能真的会改变战争的性质吗?而且真的是不负责任吗?

人工智能如何应用于战争?

人工智能绝不是一项新技术,这个术语最初是在 20 世纪 50 年代创造的。它现在已经成为一个涵盖从大型语言模型到计算机视觉再到神经网络的所有内容的总称——所有这些都非常不同。

术语最初创建于 20 世纪 50 年代

一般来说,人工智能的应用会分析数据中的模式,从文本提示等输入推断如何生成预测、内容、建议或决策等输出。但这些系统训练的基本方式并不总是具有可比性,尽管它们都被贴上了“人工智能”的标签。

并不总是具有可比性

人工智能在战争中的应用范围广泛,从用于训练士兵的兵棋模拟,到用于定位目标的问题较多的人工智能决策支持系统,例如以色列国防军使用的“薰衣草”系统,据称该系统可以识别哈马斯或其他武装团体的可疑成员。

兵棋模拟 战争