LLMS的隐藏安全风险

以及为什么自我托管可能会更安全地赌注,而LLM的隐藏安全风险首先出现在数据科学上。

来源:走向数据科学

急于将大型语言模型(LLM)集成到客户服务代理,内部副驾驶和代码生成助手中,出现了一个盲点:安全性。尽管我们专注于围绕AI的持续技术进步和炒作,但潜在的风险和脆弱性往往没有得到解决。我看到许多公司在安全方面都在处理双重标准。它的设置受到了严格的审查,但是只需单击按钮即可快速采用Azure Openai Studio(例如Azure Openai Studio)或Google Gemini的云AI服务。

安全

我知道只围绕托管LLM API构建包装解决方案是多么容易,但是对于企业用例来说,这确实是正确的选择吗?如果您的AI经纪人正在泄露公司的秘密或通过巧妙的措辞提示被劫持,那不是创新,而是违规等待发生的事情。仅仅因为我们并没有直接面对安全选择,这些安全选择在利用这些外部API时涉及实际模型,这并不意味着我们可以忘记这些模型背后的公司为我们做出了这些选择。

在本文中,我想探索隐藏的风险,并为更安全的意识途径提供理由:自托管的LLM和适当的风险缓解策略。

llms默认情况下不是安全的

仅仅因为LLM听起来很聪明,并不意味着它们本质上可以安全地集成到您的系统中。 Yoao等人最近的一项研究。探索了LLM在安全性中的双重作用[1]。尽管LLMS开放了很多可能性,有时甚至可以帮助安全实践,但它们也引入了新的漏洞和攻击途径。标准实践仍然需要发展,以便能够跟上AI动力解决方案创建的新攻击表面。

Yoao等。 让我们看一下与LLMS合作时需要处理的几个重要安全风险。 数据泄漏 提示注射 提示注射 一个示例场景: 不透明的供应链

Yoao等。

让我们看一下与LLMS合作时需要处理的几个重要安全风险。

数据泄漏

提示注射

提示注射

一个示例场景:不透明的供应链