五角大楼针对 Anthropic 的文化战策略适得其反

这个故事最初出现在我们关于人工智能的每周通讯《算法》中。要首先在您的收件箱中收到此类故事,请在此处注册。上周四,加州法官暂时阻止五角大楼将 Anthropic 标记为供应链风险,并命令政府机构停止使用其人工智能。这是这一个月来的最新进展……

来源:MIT Technology Review _人工智能

此案的利害关系——政府可以对不合作的公司进行多少惩罚——从一开始就显而易见。 Anthropic 吸引了许多高级支持者,其中包括一些不太可能的同僚,其中包括特朗普总统人工智能政策的前作者。

但林丽塔法官长达 43 页的意见表明,真正的合同纠纷根本不需要达到如此疯狂的地步。这样做是因为政府无视现有的此类纠纷管理程序,并通过官员在社交媒体上发布的帖子火上浇油,这些帖子最终将与政府在法庭上采取的立场相矛盾。换句话说,五角大楼想要一场文化战争(除了几小时后开始的伊朗实际战争之外)。

根据法庭文件,政府在 2025 年的大部分时间里都在毫无投诉地使用 Anthropic 的 Claude,而该公司作为一家注重安全的人工智能公司,在品牌上走钢丝,还赢得了国防合同。通过 Palantir 访问它的国防员工必须接受政府特定使用政策的条款,Anthropic 联合创始人贾里德·卡普兰 (Jared Kaplan) 表示,该政策“禁止对美国人进行大规模监视和致命的自主战争”(卡普兰向法院提交的声明未包含该政策的详细信息)。直到政府打算直接与 Anthropic 签订合同时,分歧才开始出现。

令法官愤怒的是,当这些分歧公开化时,它们更多地与惩罚有关,而不仅仅是切断与 Anthropic 的关系。他们有一个模式:先发推文,然后再律师。

特朗普总统 2 月 27 日在 Truth Social 上的帖子提到了 Anthropic 的“左翼疯子”,并指示所有联邦机构停止使用该公司的人工智能。不久之后,国防部长皮特·赫格塞斯也回应了这一点,他表示他将指示五角大楼将“人类”列为供应链风险。