出于经济、法律和道德原因,开发和部署人工智能 (AI) 系统的组织需要管理相关风险。然而,谁负责 AI 风险管理并不总是很清楚。三道防线 (3LoD) 模型被认为是许多行业的最佳实践,可能提供了一种解决方案。它是一个风险管理框架,可帮助组织分配和协调风险管理角色和职责。在本文中,我建议了 AI 公司可以实施该模型的方法。我还讨论了该模型如何帮助降低 AI 带来的风险:它可以识别和弥补风险覆盖范围的差距,提高风险管理实践的有效性,并使董事会能够更有效地监督管理。本文旨在为领先的 AI 公司、监管机构和标准制定机构的决策者提供信息。
主要关键词