黑客入侵人工智能:LLMjacking 允许您出售机器大脑的访问权限

此次攻击每天造成 46,000 美元的损失。

来源:安全实验室新闻频道

此次攻击每天造成 46,000 美元的损失。

Sysdig 专家发现了一种新的攻击方案,其中窃取的云服务凭据用于访问云 LLM 模型的服务,以便向其他网络犯罪分子出售访问权限。检测到的攻击针对的是 Anthropic 的 Claude (v2/v3) 模型,称为 LLMjacking。

Sysdig 已找到 人择

为了实施攻击,攻击者利用 Laravel 框架的易受攻击版本(RCE 漏洞 CVE-2021-3129,CVSS 评分:9.8)入侵了系统,然后接管了 Amazon Web Services (AWS) 凭证以获取获得法学硕士服务。

易受攻击的版本 远程代码执行 CVE-2021-3129

使用的工具包括开源 Python 脚本,用于检查来自 Anthropic、AWS Bedrock、Google Cloud Vertex AI、Mistral 和 OpenAI 的各种服务的密钥。

开源 Python 脚本,

攻击者使用 API 来验证他的凭据而不引起注意。例如,发送“max_tokens_to_sample”参数设置为-1的请求不会导致访问错误,但会返回“ValidationException”异常,这确认受害者的帐户有权访问该服务。值得注意的是,在审计期间没有向LLM提出任何要求。这足以确定帐户拥有哪些权利。

此外,网络犯罪分子还使用了 oai-reverse-proxy 工具,该工具充当 LLM 模型 API 的反向代理,允许在不泄露原始凭据的情况下访问要出售的受感染帐户。

oai-反向代理,

LLM劫持攻击链

LLM劫持攻击链

使用 LLM 可能会很昂贵,具体取决于模型和注入其中的代币数量。通过最大化配额限制,攻击者还可以防止受感染的组织使用这些模型,从而扰乱业务运营。