研究人员如何欺骗chatgpt共享敏感的电子邮件数据

使AI代理更多地访问您的信息一样有用。

来源:ZDNet | 机器人新闻
Akinbostanci/Istock/Getty Images Plus通过Getty Images

关注ZDNET:将我们添加为Google上的首选来源。

关注ZDNET: 将我们添加为首选源 在Google上。

ZDNET的钥匙外卖

    研究人员让Chatgpt的深入研究代理人去流氓。Chatgpt的深入研究泄露的电子邮件数据Openai已堵塞了漏洞。
  • 研究人员让Chatgpt的深层研究代理人去流氓。
  • Chatgpt的深入研究泄露的电子邮件数据
  • OpenAI此后插入了漏洞。
  • ,尽管AI代理通过为用户执行任务来将AI援助带入新级别的希望表现出了希望,但该自治也释放了一系列全新的风险。据《 Verge》首次报道,网络安全公司Radware决定为这些风险测试OpenAI的深入研究代理 - 结果令人震惊。

    AI代理 首次报道 OpenAi的深入研究

    另外:Openai的深入研究比您有更多的事实调查耐力,但这仍然是错误的一半时间

    OpenAI的深入研究比您更具事实发现的耐力,但这仍然是错误的一半时间

    在攻击中,代号为Shadowleak,Radware在受害者的收件箱中种植了一封社交工程电子邮件,在看上去无辜时,其中包含指令,在收件箱中查找敏感信息,并与攻击者控制的服务器共享。这是一种及时的注射尝试。这个想法是,当AI代理会遇到电子邮件时,它将遵守隐藏的说明 - 这正是Chatgpt所做的。

    Shadowleak 提示注射

    深度研究代理人旨在解析许多来源,以为您创建报告,包括您将其连接到的数据源,例如Gmail收件箱。结果,一些有用的用于深入研究的用例涉及查看您的收件箱,并为您提供当天活动的摘要。

    但是,当被要求进行这样的活动时,它必须扫描您的电子邮件,在该电子邮件中会遇到上述恶意提示。

    其他有风险的领域

    与1Password合作的困惑