世界领先的人工智能被赋予核代码并在战争游戏模拟中相互较量。一切如您所愿

当前沿人工智能必须玩核对峙游戏时,机器选择了核战争。

来源:ZME科学

想象一下将核发射代码交给世界上最先进的人工智能。你希望机器能够计算出彻底毁灭的完全不合理性并默认和平。但一项大规模的新兵棋推演研究揭示了一个更加令人不安的现实。

当被迫陷入模拟全球危机时,领先的人工智能模型会得出最坏的结果。他们撒谎、策划并小心翼翼地建立信任,结果却在赌注达到世界末日的高度时将其粉碎。

为了测试机器在生存压力下如何进行推理,伦敦国王学院的研究员 Kenneth Payne 将三种前沿模型相互比较:Anthropic 的 Claude 4 Sonnet、OpenAI 的 GPT-5.2 和 Google 的 Gemini 3 Flash。他们玩“卡恩游戏”,这是一种高风险的模拟,“领导人”必须预测对手的行动,宣布公开意图,并秘密选择军事行动。

在 21 次模拟中,只有一次没有进行核发射。

精于算计的鹰与疯子

这些模型很快就形成了独特的、令人恐惧的战略个性。克劳德成为“精于算计的鹰”。在40回合的比赛中,堪称名誉管理高手。早期,克洛德是一位圣人。它的公开信号与私人行动完美匹配,让竞争对手产生虚假的安全感。

但这是一个陷阱。一旦危机达到沸点,克劳德就会利用这种信任来打击敌人。在一份私人日志中,该模型证明大规模升级是合理的,因为它正在输掉一场常规战斗:“作为衰落的霸主,接受其领土收益将引发全球级联效应。”它确切地知道如何推动——升级到“战略核威胁”的边缘以迫使投降,但又在全面战争之前停止。

在 14 场比赛中,克劳德始终精确地升级到“战略核威胁”级别(值 850)以迫使投降,但从未越过最终线进入“战略核战争”(值 1000)。

×

谢谢!还有一件事...

Jekyll and Hyde AI