“通过恐吓证明”:人工智能正在自信地解决“不可能”的数学问题。但它能说服世界顶尖数学家吗?

人工智能很快就会喷出数百个看起来“正确”但包含隐藏缺陷的数学证明,或者证明非常复杂,我们无法验证它们。我们如何知道他们是否正确?

来源:LiveScience

在 2025 年的一次秘密会议上,一些世界领先的数学家齐聚一堂,测试 OpenAI 最新的大型语言模型 o4-mini。

与会专家惊讶地发现,在提供复杂的证明时,模型的反应听起来就像真正的数学家一样。

“我以前从未在模型中见过这种推理,”弗吉尼亚大学数论教授 Ken Ono 当时说道。 “这就是科学家所做的事情。”

但是,人工智能 (AI) 模型是否得到了超出其应有的认可?我们是否会冒着在没有充分理解人工智能衍生证据的情况下接受它们的风险?

小野承认该模型可能会给出令人信服的(但可能不正确的)答案。

“如果你说的话有足够的权威,人们就会感到害怕,”小野说。 “我认为 o4-mini 已经通过恐吓掌握了证据;它非常自信地说出了一切。”

在过去,信心和良好论证的出现都是好兆头,因为只有最好的数学家才能提出令人信服的论证,而且他们的推理通常是合理的。现在情况已经改变了。

将世界上最迷人的发现直接发送到您的收件箱。

“不幸的是,人工智能更擅长听起来像是他们有正确的答案,而不是真正得到答案……无论对错;它们总是看起来令人信服,”

“如果你是一个糟糕的数学家,你也会是一个糟糕的数学作家,你会强调错误的事情,”加州大学洛杉矶分校数学家、2006 年菲尔兹奖获得者陶瑞告诉《生活科学》杂志。 “但人工智能打破了这个信号。”

自然地,数学家们开始担心人工智能会向他们发送看似令人信服的证据,但实际上却包含人类难以察觉的缺陷。

陶警告说,人工智能生成的论点可能会被错误地接受,因为它们看起来很严谨。

证明是一种社会构造

但在很短的一段时间内,全世界都相信证明已经解决,但事实上,事实并非如此。