为了实现强大的人工智能治理和风险管理,在部署人工智能程序时建立多个安全层至关重要。三道防线 (3LoD) 模型是一个基本框架,它划定了三个不可或缺的防御层,每个防御层都有独特的职责和责任。该框架的核心是人物角色的关键作用,这些人物角色无缝集成在这些防线上。
36. 3LOD 保证提供“内部审计”能力,由独立于接受审计的国防组织的组织(例如 DSA)执行。通过其独立性,内部审计职能将对组织评估和管理风险的有效性提供客观评估。它包括对“第一和第二道防线”的设计和运作有效性的评估。它通常通过基于风险的方法,通过评估风险管理框架的所有要素以及风险和控制活动来实现这一点。许多组织提供的有效和全面的内部审计职能也可能增强跨组织风险管理的保证状况,从而支持组织之间分享良好做法。
摘要 出于经济、法律和道德原因,开发和部署人工智能 (AI) 系统的组织需要管理相关风险。然而,谁负责 AI 风险管理并不总是很清楚。三道防线 (3LoD) 模型被认为是许多行业的最佳实践,可能提供了一种解决方案。它是一个风险管理框架,可帮助组织分配和协调风险管理角色和职责。在本文中,我建议了 AI 公司可以实施该模型的方法。我还讨论了该模型如何帮助降低 AI 带来的风险:它可以识别和弥补风险覆盖范围的差距,提高风险管理实践的有效性,并使董事会能够更有效地监督管理。本文旨在为领先的 AI 公司、监管机构和标准制定机构的决策者提供信息。
出于经济、法律和道德原因,开发和部署人工智能 (AI) 系统的组织需要管理相关风险。然而,谁负责 AI 风险管理并不总是很清楚。三道防线 (3LoD) 模型被认为是许多行业的最佳实践,可能提供了一种解决方案。它是一个风险管理框架,可帮助组织分配和协调风险管理角色和职责。在本文中,我建议了 AI 公司可以实施该模型的方法。我还讨论了该模型如何帮助降低 AI 带来的风险:它可以识别和弥补风险覆盖范围的差距,提高风险管理实践的有效性,并使董事会能够更有效地监督管理。本文旨在为领先的 AI 公司、监管机构和标准制定机构的决策者提供信息。
