详细内容或原文请订阅后点击阅览
军事人工智能的真正危险不是杀手机器人,而是机器人。人类的判断力更差
随着五角大楼急于部署基于法学硕士的工具,研究表明它们可能会破坏人类的思维和沟通。
来源:美国防务一号网关于致命自主权的争论——特朗普政府与人类斗争的核心——掩盖了五角大楼快速采用商业人工智能工具的更深层次的危险:它们可能会削弱美国军方辨别事实与虚构的能力。
新的研究表明,依赖人工智能来完成各种任务可能会削弱一个人完成这些任务的天生能力。 军事指挥官正在注意到这一点。
“你使用人工智能的次数越多,你就越会以不同的方式使用你的大脑,”北约盟军转型最高指挥官、法国海军上将皮埃尔·范迪尔 (Pierre Vandier) 在《国防一号》的“国防状态”系列节目中的一次对话中说道。 “因此,[我们需要]能够进行一些监督,能够批评我们从人工智能中看到的东西,并确保你不会被某种虚假的事物呈现所愚弄。这是我们需要处理的事情。”
但几乎没有证据表明,五角大楼在急于部署人工智能工具时,正在采取措施保持用户的敏锐度,甚至监控人工智能的影响。
“由于部署这些模型的速度和紧迫性,可能还没有落实到位,”一位致力于在战斗环境中部署人工智能的前高级军官表示。
与此同时,使用人工智能工具的压力只会越来越大。
“特别是当你深入任何冲突时,寻找更多目标的压力会越来越大。每次冲突都会发生这种情况。两周后,你会仔细检查交付目标清单。现在你要求目标。那么,你能多快生成目标?”这位前高级军官说。
认知陷阱
越来越多的研究表明,大型语言模型的广泛使用会破坏人类的思维和交流。
例如,根据空军研究实验室本月早些时候在《细胞》杂志上发表的一篇论文,它可以使用户的思维同质化,强化“主导风格,同时边缘化替代声音和推理策略”。
谁在开车?
