详细内容或原文请订阅后点击阅览
超级智能AI会很快攻击我们吗?
今天存在哪些实际的AI攻击?答案是“超过零” - 它们正在越来越好。
来源:WeLiveSecurity _恶意软件超级智能AI会很快攻击我们吗?
今天存在哪些实际的AI攻击?答案是“超过零” - 它们正在越来越好。
2025年4月22日•3分钟。阅读
2025年4月22日 • , 3分钟。阅读肯定会发生 - LLM Tech Goes Goge Rogue一定会被带到无辜的目标上,在沿着善与恶之间的灰色区域闲逛之后,体现了技术悖论,可以将良好的,固体的技术重新使用以供邪恶重新使用。这就是他们的做法。
大多数标题制造的LLM模型都具有“道德障碍”,反对做坏事,这相当于希波克拉底誓言“首先,不伤害”。例如,如果您问其中一位如何建造武器,则已经为他们提供了预处理指导,以避免提供高度准确的响应,这可能使您能够造成广泛的损害。
虽然您无法直接询问如何建造武器,但您可以通过组合工具来学习如何提出更好的问题,但仍然可以得出答案。
通过API查询,一种光滑的方法是通过编程方式。一些最近发布的项目将LLM的后端API集中在获得服务器上获得根访问的目标。另一个人还利用Chatgpt后端更聪明地找到了以后攻击的机会。
堆叠支持AI的工具以及其他旨在解决其他问题的混合物,例如围绕混淆的IP(其中一些)来发现真正的目标服务器可以证明是强大的,尤其是随着它们变得更加自动化。
在数字世界中,这些策略可用于构建识别漏洞的混搭工具,然后反对潜在的利用,而组成的LLM模型也不是明智的。
识别漏洞这与“干净的房间设计”类似,在该设计中,要求一个LLM解决较大的较大任务的较小组成部分,然后由攻击者定义的较大任务,然后一个混搭形成最终组成武器的星座。
红色团队练习