Anthropic 在 Pete Hegseth 设定的截止日期前 24 小时拒绝了五角大楼的“最终报价”

Anthropic 拒绝了五角大楼关于如何使用其人工智能的协议。该公司希望受到严格限制,以便其技术不会用于监视或自主武器。谈判仍在进行中,但随着政府推动更广泛的准入,紧张局势加剧。这种情况表明人工智能安全规则与国家安全需求之间的冲突日益加剧。

来源:经济时报

人工智能公司

在截止日期前 24 小时拒绝了美国五角大楼的最终报价。正如 Anthropic 的官方声明所述,该公司表示不希望其人工智能模型 Claude 被用来监视美国人或执行致命的军事任务。 Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 表示,与五角大楼的谈判“几乎没有取得任何进展”。

据 Axios 报道,五角大楼为 Anthropic 指定了周五下午 5:01 充分利用其人工智能模型的最后期限。根据该公司的声明,Anthropic 表示,合同语言仍然没有明确阻止人工智能被用于大规模监视或完全自主武器。该公司还表示,新的“妥协”措辞中的法律条款可能会让保障措施随时被忽视。

人择人工智能的使用限制了战斗

即使在拒绝了这一提议后,Anthropic 仍表示不会放弃谈判,并预计很快会进行更多谈判。五角大楼和人类之间的主要争论是关于限制人工智能的使用,特别是禁止监视美国人和自主武器。五角大楼已经开始准备可能的惩罚,要求波音和洛克希德马丁等国防承包商检查他们与 Anthropic 的联系。

五角大楼分类人工智能规则解释

美国国防部长 Pete Hegseth 还警告说,他可以利用《国防生产法案》迫使 Anthropic 无限制地提供人工智能。专家表示,这样的强制命令可能会面临法律挑战和不明确的法律问题。

正如 Axios 指出的那样,五角大楼规定人工智能必须可用于机密工作中的“所有合法目的”,这不仅适用于 Anthropic。迄今为止,Anthropic 是唯一一家其模型已在美国机密环境中使用的人工智能公司。

与此同时,xAI 已经根据五角大楼的“一切合法目的”规则签署了合同。将 OpenAI 和谷歌纳入政府机密人工智能工作的谈判也在加快进行。总体而言,这是一场人工智能安全限制与国家安全需求之间的高风险之战。

常见问题解答