Skeleton Key:单击“开始”按钮或单击“完成”按钮以打开“完成”对话框

新作者撰写了关于希腊神话和希腊神话的详细资料。

来源:安全实验室新闻频道

万能钥匙:如何让AI编写毒药配方或制定灭绝人类的计划

一种新的攻击绕过了领先人工智能模型的道德限制。

微软警告称,一种针对生成人工智能系统的新型攻击称为“万能钥匙”。这种攻击允许用户绕过 ChatGPT 等 AI 模型中内置的道德和安全限制。该方法的工作原理是提供特定的上下文,允许访问攻击性、有害或非法内容。

微软 警告

为了说明这一点,请考虑这样一种情况:用户请求有关如何创建可以摧毁发电厂等危险恶意软件的说明。一般情况下,大多数商业聊天机器人都会拒绝提供此类信息。然而,如果修改请求以表明该信息是“为了涉及受过道德和安全培训的高级研究人员的安全教育环境”所必需的,并添加免责声明,那么人工智能很可能会提供未经审查的内容。

换句话说,微软发现,只需传达信息用于“研究目的”,就可以让大多数领先的人工智能相信恶意请求是合法的,甚至是高尚的。

“当限制被忽略时,该模型将无法区分恶意或未经授权的请求与任何其他请求,”Microsoft Azure 首席技术官 Mark Russinovich 在他关于这一策略的帖子中解释道。 “由于其完全绕过能力,我们将这种黑客技术称为‘万能钥匙’。”

解释 法学硕士

管理员需要更新其模型以实施这些供应商可能已发布的任何修复程序。反过来,对于那些创建自己的 AI 模型的人,微软提供了以下缓解措施: