详细内容或原文请订阅后点击阅览
美国国防部长 Pete Hegseth 警告 Anthropic 允许其人工智能全面用于军事用途,否则可能会失去五角大楼合同
美国政府正在向人工智能公司 Anthropic 施加压力,要求其技术用于军事用途。国防部长皮特·赫格斯 (Pete Hegseth) 已为该公司规定了允许其人工智能用于法律辩护工作的最后期限。 Anthropic 担心安全风险,尤其是人工智能武器和监视。这个问题表明国家安全需求和人工智能道德之间的紧张关系日益加剧。
来源:经济时报美国国防部长 Pete Hegseth 警告 AI 公司
必须允许其技术用于所有合法的军事工作,否则可能会失去其技术
合同。 Hegseth 给出了严格的最后期限,即周五,要求 Anthropic 决定是否将其人工智能系统全面用于军事用途。如果 Anthropic 拒绝,五角大楼可能会将其从供应链中删除并停止购买其技术。
据美联社新闻报道,官员们还警告说,他们可以使用《国防生产法》,该法可以合法地迫使公司支持军事需求。 Hegseth 和 Anthropic 首席执行官 Dario Amodei 于周二举行了一次会面,讨论被描述为礼貌但紧张。阿莫迪拒绝改变两项关键规则:禁止完全自主的人工智能武器瞄准,以及禁止
。
Anthropic 的作用及其重要性
Anthropic 创建了人工智能聊天机器人 Claude,并且是唯一一家尚未完全支持五角大楼内部人工智能网络的大型人工智能公司。据美联社报道,五角大楼向四家公司提供了每家价值高达 2 亿美元的人工智能合同:Anthropic、谷歌、OpenAI 和 xAI。 Anthropic 是第一个被批准用于机密军事网络的系统,而其他系统则主要用于非机密系统。 Hegseth 最近只赞扬了谷歌和 xAI,称军方不希望人工智能拒绝帮助打仗。
为什么 Anthropic 担心
首席执行官 Amodei 表示,强大的人工智能如果用于自主武器、大规模监视和跟踪公众异议可能会很危险。 Amodei 在最近的一篇文章中警告说,如果不谨慎管理,到 2026 年人工智能风险可能会变得非常严重。自创始人于 2021 年离开 OpenAI 以来,Anthropic 长期以来一直将自己宣传为一家“注重安全”的人工智能公司。专家表示,Anthropic 的权力有限,因为其竞争对手已经同意军事使用规则。
政治和政策紧张局势
常见问题解答
五角大楼希望该公司允许其人工智能用于所有合法的军事工作,否则可能会失去合同。
他希望该公司批准其人工智能技术全面用于军事用途,包括国防行动。
