详细内容或原文请订阅后点击阅览
研究人员如何欺骗chatgpt共享敏感的电子邮件数据
使AI代理更多地访问您的信息一样有用。
来源:ZDNet | 机器人新闻关注ZDNET:将我们添加为Google上的首选来源。
关注ZDNET: 将我们添加为首选源 在Google上。ZDNET的钥匙外卖
- 研究人员让Chatgpt的深入研究代理人去流氓。Chatgpt的深入研究泄露的电子邮件数据Openai已堵塞了漏洞。
,尽管AI代理通过为用户执行任务来将AI援助带入新级别的希望表现出了希望,但该自治也释放了一系列全新的风险。据《 Verge》首次报道,网络安全公司Radware决定为这些风险测试OpenAI的深入研究代理 - 结果令人震惊。
AI代理 首次报道 OpenAi的深入研究另外:Openai的深入研究比您有更多的事实调查耐力,但这仍然是错误的一半时间
OpenAI的深入研究比您更具事实发现的耐力,但这仍然是错误的一半时间在攻击中,代号为Shadowleak,Radware在受害者的收件箱中种植了一封社交工程电子邮件,在看上去无辜时,其中包含指令,在收件箱中查找敏感信息,并与攻击者控制的服务器共享。这是一种及时的注射尝试。这个想法是,当AI代理会遇到电子邮件时,它将遵守隐藏的说明 - 这正是Chatgpt所做的。
Shadowleak 提示注射深度研究代理人旨在解析许多来源,以为您创建报告,包括您将其连接到的数据源,例如Gmail收件箱。结果,一些有用的用于深入研究的用例涉及查看您的收件箱,并为您提供当天活动的摘要。
但是,当被要求进行这样的活动时,它必须扫描您的电子邮件,在该电子邮件中会遇到上述恶意提示。