人工智能现在可以自我复制——一个让专家们感到恐惧的里程碑

科学家表示,在展示了两种流行的大型语言模型如何自我克隆后,AI 已经越过了一条关键的“红线”。

来源:Space.com: NASA,太空探索和天文新闻

科学家表示,人工智能 (AI) 已经越过了一条关键的“红线”,并实现了自我复制。在一项新研究中,来自中国的研究人员表明,两种流行的大型语言模型 (LLM) 可以自我克隆。

人工智能 人工智能

“在无人协助的情况下成功自我复制是人工智能超越 [人类] 的关键一步,也是流氓人工智能的早期信号,”研究人员在 2024 年 12 月 9 日发表在预印本数据库 arXiv 上的研究中写道。

arXiv arXiv

在这项研究中,来自复旦大学的研究人员使用 Meta 和阿里巴巴的 LLM 来确定自我复制的人工智能是否能够不受控制地繁殖。在 10 次试验中,两种人工智能模型分别在 50% 和 90% 的情况下创建了独立且可运行的自身复制品——这表明人工智能可能已经具备了失控的能力。然而,这项研究尚未经过同行评审,因此尚不清楚其他研究人员是否可以复制这一令人不安的结果。

法学硕士 法学硕士

“我们希望我们的研究结果能够及时提醒人类社会更加努力地了解和评估前沿人工智能系统的潜在风险,并形成国际协同效应,尽早制定有效的安全护栏。”

人类社会

失控人工智能通常是指发展出一定程度的自我意识或自主性,然后违背人类利益行事的人工智能系统。

自我意识或自主性 自我意识或自主性

许多专家认为,流氓人工智能是一种日益严重的威胁,而所谓的“前沿人工智能”的爆炸式增长又加剧了这种威胁。

流氓人工智能是一种日益严重的威胁 流氓人工智能是一种日益严重的威胁

前沿人工智能是一个新而松散的概念,但通常它与由 LLM 驱动的最新一代人工智能系统有关——这种架构支撑着流行的生成式人工智能程序,如 OpenAI 的 GPT-4 和 Google Gemini。

OpenAI 的 GPT-4 OpenAI 的 GPT-4 加入我们的太空论坛 community@space.com。