随着人工智能 (AI) 系统的部署日益广泛,道德 AI 原则也在不断涌现。认证提供了一种激励采用这些原则并证实它们已在实践中实施的方法。本文借鉴了有关认证的管理文献,并回顾了当前的 AI 认证计划和提案。成功的计划依赖于新兴的技术方法和特定的设计考虑。为了避免两种常见的认证失败,计划设计应确保认证符号在实践中得到实质性实施,并且计划实现其既定目标。审查表明,该领域目前专注于系统、个人和组织的自我认证和第三方认证——不包括流程管理认证。此外,本文还探讨了未来 AI 认证计划的前景。AI 技术的持续变化表明,AI 认证制度的设计应强调具有持久价值的治理标准,例如 AI 开发人员的道德培训,并随着技术的变化调整技术标准。总体而言,认证可以在 AI 治理工具组合中发挥宝贵作用。