虽然人工智能 (AI) 系统的使用有望带来巨大的经济和社会效益,但它也伴随着道德、法律和技术挑战。因此,企业领导者面临着如何在管理相关风险的同时最好地利用自动化带来的好处的问题。作为第一步,许多公司已承诺遵守旨在指导 AI 系统设计和使用的各种道德原则。到目前为止一切顺利。但如何将善意的道德原则转化为有效的实践?那些试图实施 AI 治理的公司又将面临哪些挑战?在本文中,我们将利用我们在生物制药公司阿斯利康塑造和推动 AI 治理推广的第一手经验来回答这些问题。我们讨论的例子突出了任何试图实施 AI 治理的组织都必须面对的挑战。这些问题包括如何定义 AI 治理的具体范围、如何在分散的组织之间协调标准以及如何衡量特定 AI 治理举措的影响。通过展示阿斯利康如何管理这些运营问题,我们希望为其他组织负责设计和实施 AI 治理框架的项目经理、首席信息官、AI 从业者和数据隐私官提供可推广的最佳实践。从本质上讲,我们鼓励寻求实施 AI 治理的公司在现有政策和治理结构的基础上,使用务实和以行动为导向的术语,专注于开发和采购中的风险管理,并通过持续教育和变革管理赋予员工权力。
主要关键词