详细内容或原文请订阅后点击阅览
介绍 ACL Hydration:代理 AI 的安全知识工作流程
DataRobot 的新 ACL Hydration 框架保留源系统访问控制并在查询时强制实施 — 因此代理 AI 每次都能为正确的用户检索正确的信息。ACL Hydration 简介:代理 AI 的安全知识工作流程一文首先出现在 DataRobot 上。
来源:DataRobot博客您的代理的好坏取决于他们能够获取的知识,并且安全取决于他们执行的权限。
我们正在推出 ACL Hydration(访问控制列表水合),以保护 DataRobot Agent Workforce Platform 中的知识工作流程:一个统一的框架,用于摄取非结构化企业内容、保留源系统访问控制并在查询时强制执行这些权限,以便您的代理每次都能为正确的用户检索正确的信息。
问题:没有企业安全的企业知识
每个构建代理人工智能的组织都会遇到同样的问题。您的代理需要访问 SharePoint、Google Drive、Confluence、Jira、Slack 和数十个其他系统中锁定的知识。但连接到这些系统只是挑战的一半。更困难的问题是确保当代理检索文档来回答问题时,它遵循与管理谁可以在源系统中查看该文档相同的权限。
如今,大多数 RAG 实现完全忽略了这一点。文档被分块、嵌入并存储在矢量数据库中,没有记录谁应该或不应该访问它们。这可能会导致初级分析师的查询显示董事会级别的财务文档,或者承包商的代理检索仅供内部领导使用的人力资源文件。挑战不仅仅是如何在 RAG 系统填充期间从数据源传播权限 - 当人员添加到访问组或从访问组中删除时,这些权限需要不断刷新。这对于保持同步控制谁可以访问各种类型的源内容至关重要。
这不是理论上的风险。这就是安全团队阻止 GenAI 推出、合规官员犹豫是否批准以及有前途的代理飞行员在投入生产之前停滞不前的原因。企业客户已经明确表示:如果没有访问控制感知检索,代理人工智能就无法超越沙盒实验。
