详细内容或原文请订阅后点击阅览
麻省理工学院的研究发现,人工智能代理快速、松散且失控
麻省理工学院的一项研究发现,大多数代理人工智能系统没有透露任何安全测试内容,并且许多系统没有记录的方法来关闭流氓机器人。
来源:ZDNet | 机器人新闻关注 ZDNET:将我们添加为 Google 上的首选来源。
ZDNET 的关键要点
编者注:本文已根据 Perplexity、OpenAI 和 IBM 的回复进行了更新。
随着 OpenAI 本周宣布聘请开源软件框架 OpenClaw 的创建者 Peter Steinberg,Agentic 技术正在全面进入人工智能主流。
OpenClaw 软件上个月引起了广泛关注,不仅因为它具有野生功能(例如可以代表您发送和接收电子邮件的代理),而且还因为其严重的安全缺陷,包括完全劫持您的个人计算机的能力。
另外:Perplexity 的新计算机是 OpenClaw 的更安全版本吗?它是如何工作的
鉴于人们对智能体的着迷,以及人们对它们的优缺点了解甚少,麻省理工学院及其合作机构的研究人员刚刚发布了一项针对 30 个最常见的智能体人工智能系统的大规模调查,这一点非常重要。
结果清楚地表明,代理人工智能目前是一场安全噩梦,这一学科的特点是缺乏披露、缺乏透明度,并且明显缺乏关于代理如何运作的基本协议。
缺乏透明度
该报告最大的启示是,识别代理人工智能可能出现的所有问题是多么困难。这主要是开发商缺乏披露的结果。
剑桥大学的主要作者 Leon Staufer 以及麻省理工学院、华盛顿大学、哈佛大学、斯坦福大学、宾夕法尼亚大学和耶路撒冷希伯来大学的合作者写道:“我们发现,在关于代理系统的生态系统和安全相关特征的报告中存在持续的局限性。”
表格以红色显示所有遗漏的代理系统披露情况。
