埃森哲认为,NIST 在制定 AI RMF 时总体上走在了正确的轨道上,并概述了未来草案中需要澄清、修正或补充的几个领域。我们同意 NIST 制定和维护“可操作指南”的既定目标,并同意“培养关于如何理解和管理 AI 系统的 AI 风险的信任和沟通将为创新创造机会并充分发挥该技术的潜力。”我们支持 NIST 的风险缓解方法,即为 AI 制定自愿的基于风险的共识标准和指南,以考虑后果的不同程度和性质。我们还赞扬 NIST 对利益相关者意见和包容的深思熟虑的方法,以及它对 AI 可以“造福社会和经济的几乎所有方面”的理解。埃森哲认识到,这份初稿是 NIST 制定 AI RMF 的审议和包容过程中相对较早的一步。为了确保 NIST 走在正确的轨道上,我们概述了几个可以从未来草案和即将发布的配套实践指南中的澄清、修正或补充中受益的领域。除了对 NIST 提出的九个具体问题的回答外,我们还概述了几项高级建议,我们认为这些建议对于创建可操作、可互操作且被广泛采用的 AI RMF 至关重要,它可以保护社区并促进创新: