•国防部授权的CMMC C3PAO(KLC咨询)•前Disa(DOD)运营经理•Pactera&Brandeis University的前CISO - Heller School•Heller School•Heller School•Fortune 500公司的前渗透测试员•SMAC MAC地址改变者的作者 - 超过300万用户•cmmc onist 800-171,nist 800-171,nist 800-53,nist 800-53,nist 800-53,rmf,rmf,
NIST 欢迎对此初稿和相关实践指南提出反馈,以指导 AI RMF 的进一步发展。可以在 2022 年 3 月 29 日至 31 日的研讨会上提供意见,也强烈建议通过电子邮件分享。NIST 将在 2023 年 1 月发布 AI RMF 1.0 之前制作第二稿征求意见,并举办第三次研讨会。请在 2022 年 4 月 29 日之前将对此初稿的评论发送至 AIframework@nist.gov。
5.0 2014 年 11 月 提供了与从 DIACAP 过渡到 RMF 相关的连接批准要求信息。添加了 DoD RMF 条款和参考。添加了 DISN 连接批准要求将遵循 DoD CIO 发布的 DIACAP 到 RMF 时间表和说明的声明。删除了国防红色交换网络 (DRSN),现在为多级安全语音。删除了 DISN 视频服务 (DVS)。添加了 DODIN 和 DISN 说明。添加了关于 NIPRNet 联合网关 (NFG)、秘密互联网协议路由器网络 (SIPRNet) 可释放非军事区 (REL DMZ) 和 SIPRNet 联邦 DMZ (FED DMZ) 的讨论。删除了之前关于 DISN CAO 执行风险评估的语言。添加了有关更新 SNAP/SGS 联系点 (POC) 的要求的指导。更新了远程合规监控 (RCM) 扫描程序。添加了 DoDI 8551.01、PPSM 声明要求。更新了参考资料。修订了跨域解决方案 (CDS) 附录和流程图。添加了验证官员的要求。
2024 年 8 月 21 日 — 1.2 术语和定义。本规范中使用的术语和定义如下,并在 GLT-CG-Z000001 中定义。 1.2.1 RMF。根据美国国防部最新的安全标准,
近年来,大量研究和指导表明,提高人工智能 (AI) 系统的可信度是私营和公共部门的共同优先事项。1,2,3 然而,可信人工智能的含义以及实现它的潜在方法仍然存在争议。4,5,6 利益相关者往往缺乏共同的词汇或一组需要考虑的问题,而且很少有针对人工智能开发者和政策制定者的指导。现有的可信人工智能框架还倾向于关注一组相对狭窄的人工智能模型和直接与人互动的应用程序。7 自 2021 年以来,美国国家标准与技术研究所 (NIST) 一直在与不同的利益相关者合作,开发旨在促进可信人工智能的人工智能风险管理框架 (RMF)。在本文中,我们分析了可信人工智能的前景,并介绍了一种人工智能可信度分类法,旨在补充和支持 NIST AI RMF 的使用。
7. 本节连续第三年回顾了 GEF-8 RMF 五个环境领域取得的成果,并通过对项目影响的定性分析加以加强。它还涉及跨领域优先事项,例如私营部门参与和性别平等。图 1 所示的每个结果领域都围绕 GEF-8 RMF 第 1 层指标构建。数据来源于 2022-2024 财年提交的中期审查 (MTR) 和期末评估 (TE)。分析高级实施阶段和完成阶段的结果使 GEF 能够反思成就并确定潜在的绩效改进。结果以 GEF-8 的固定基准为背景,反映了 2019-2021 财年报告的成就。这个基准期标志着项目首次采用核心指标,提供当时在当前结果架构下报告的一小部分投资组合的价值。表 1 总结了今年的绩效,概述了每个核心指标的实际结果。
1. 建立总体政策框架,推动公共部门内部协调。政策制定者应统一其在公共部门的人工智能治理方法,避免制定重复和不同的政策,这对于降低成本和改善政府运营的服务交付至关重要。重要的是,所有与人工智能相关的政策框架都应基于风险、针对具体情况、保护权利,并避免采取可能破坏创新和妨碍政府获取行业提供的创新商业技术的措施。鼓励各国政府尽可能采用美国国家标准与技术研究所 (NIST) 的人工智能风险管理框架 (RMF),以促进负责任地采用能够支持政府使命的人工智能技术。根据 NIST 的人工智能风险管理框架,与行业领导者的对话应保持稳健和一致,以确保政策提供适当的保障措施,以避免和/或减轻风险,而不会无意中阻碍采用可以促进数字服务交付的人工智能技术。