研究发现,人工智能自我复制黑客“不再纯粹是理论上的” - 但专家表示现在恐慌还为时过早

研究人员表示,人工智能模型现在可以在易受攻击的系统中进行自我复制,但专家警告说,真正的威胁不是流氓机器智能,而是网络犯罪分子将人工智能代理武器化。

来源:LiveScience

新的研究显示,人工智能 (AI) 模型可以在多台机器上自主“复制”,攻击易受攻击的系统,将自己的参数复制到受感染的主机上,并启动能够继续攻击的工作副本。然而,专家告诉《Live Science》,更大的担忧不是人工智能突然自行失控,而是网络犯罪分子利用人工智能代理来自动化已知的黑客技术。

Palisade Research 的科学家测试了人工智能代理是否可以在没有人类干预的情况下独立地穿过一系列故意脆弱的系统。在 5 月 7 日上传到 GitHub 的一项新研究中,大型语言模型 (LLM) 可以识别可利用的 Web 应用程序、窃取凭证、传输自己的文件,并建立能够从链中的下一台机器继续攻击的新推理服务器。

研究人员在研究中写道,这是第一项表明人工智能模型“自主利用目标并端到端复制自身”的研究。

虽然这听起来像是科幻灾难电影的前提,但未参与这项研究的专家表示,现实并不那么戏剧化。

值得注意的是,这些系统并不是自发地决定在野外繁殖自己。相反,研究人员告诉模型进行复制,向它们提供 Linux 工具和 shell 访问权限,并向它们指出故意存在漏洞的系统。其中包括容易受到各种攻击方法影响的漏洞,这些攻击方法可能会暴露凭据、绕过登录或将访问权限移交给其他计算机。

咨询公司 NorthStar Intelligence 的首席人工智能官杰夫·沃特金斯 (Jeff Watkins) 表示,该实验更接近于自动网络入侵,而不是“机器生命”。

“这更像是一条附有计划器的蠕虫,而不是意识缩放。”

将世界上最迷人的发现直接发送到您的收件箱。

紧张的行进方向

尽管如此,研究人员认为发展轨迹比当前的限制更重要。