详细内容或原文请订阅后点击阅览
以人为中心的人工智能在战场上也不例外
Utsav Gupta 研究了在战场上使用人工智能的风险,认为“人工智能的输出可以提供信息,但不能取代人类的判断。”《以人为中心的人工智能在战场上没有例外》一文首先出现在《斯坦福日报》上。
来源:斯坦福大学日报斯坦福大学围绕以人为本的人工智能打造了世界上最具影响力的品牌之一。从一开始,斯坦福以人为中心的人工智能研究所(HAI)就断言人工智能应该增强人们的工作,而不是取代他们。在“AI in the Loop”会议上,HAI 教员认为人类必须始终处于决策的中心。当涉及到战争时,必须最仔细地考虑以人为中心的人工智能的指导原则,因为战争的风险是致命的。
Anthropic 的 Claude 成为第一个获准在机密军事网络上运行的人工智能模型,Anthropic 表示它已在美国军队中广泛部署用于分析和操作。 Palantir 的 Maven 系统用于情报分析和武器瞄准,包括使用 Claude Code 构建的提示和工作流程。
当特朗普政府在安全护栏争议后将 Anthropic 指定为供应链风险时,五角大楼用户抵制逐步淘汰,估计重新认证可能需要 12 至 18 个月,这表明人工智能在我们军队中的早期地位。随着逐步淘汰进程的拖延,五角大楼现在正在巩固 Palantir 的 Maven 作为他们的首选人工智能系统。
据路透社报道,美国调查人员认为,美军对伊朗米纳布学校的袭击负责,据报道,此次袭击导致包括学童在内的 168 名学校附属人员死亡。 《华盛顿邮报》报道称,该学校位于美国目标名单上,Maven(部分由 Claude 提供支持)用于建议目标、发布精确坐标并按重要性对它们进行优先级排序。
目前尚不清楚Maven是否专门提名了学校;一位前高级国防官员警告《华盛顿邮报》不要做出这样的假设,并指出该网站可能多年来一直在美国的目标名单上。 《华盛顿邮报》引用的五角大楼初步审查表明,这次袭击可能是由于有关地点的情报错误造成的,全面调查仍在继续。
