Promptware 杀伤链

针对现代生成人工智能 (AI) 大语言模型 (LLM) 的攻击构成了真正的威胁。然而,围绕这些攻击及其潜在防御的讨论是危险的短视。主流叙述集中在“即时注入”,这是一组将指令嵌入到 LLM 的输入中的技术,旨在执行恶意活动。这个术语暗示了一种简单、单一的漏洞。这种框架掩盖了更加复杂和危险的现实。对基于 LLM 的系统的攻击已演变成一类独特的恶意软件执行机制,我们将其称为“提示软件”。在...

来源:Schneier _恶意软件

Promptware 杀伤链

针对现代生成人工智能 (AI) 大语言模型 (LLM) 的攻击构成了真正的威胁。然而,围绕这些攻击及其潜在防御的讨论是危险的短视。主流叙述集中在“即时注入”,这是一组将指令嵌入到 LLM 的输入中的技术,旨在执行恶意活动。这个术语暗示了一种简单、单一的漏洞。这种框架掩盖了更加复杂和危险的现实。对基于 LLM 的系统的攻击已演变成一类独特的恶意软件执行机制,我们将其称为“提示软件”。在一篇新论文中,作者提出了一个结构化的七步“即时软件杀伤链”,为决策者和安全从业者提供必要的词汇和框架来应对不断升级的人工智能威胁形势。

在我们的模型中,提示软件杀伤链从初始访问开始。这是恶意负载进入人工智能系统的地方。这可能会直接发生,攻击者在 LLM 应用程序中输入恶意提示,或者更阴险地通过“间接提示注入”发生。在间接攻击中,攻击者将恶意指令嵌入到 LLM 检索(在推理时间内获得)的内容中,例如网页、电子邮件或共享文档。随着法学硕士变得多模式(能够处理文本以外的各种输入类型),这个向量进一步扩展;恶意指令现在可以隐藏在图像或音频文件中,等待视觉语言模型处理。

但提示注入只是复杂的多阶段操作中的初始访问步骤,该操作反映了 Stuxnet 或 NotPetya 等传统恶意软件活动。

本文由 Oleg Brodt、Elad Feldman 和 Ben Nassi 共同撰写,最初发表于《Lawfare》。

标签:人工智能、法学硕士、恶意软件

发布于 2026 年 2 月 16 日上午 7:04•11 条评论