NIST 可信和负责任 AI 资源中心将托管 AI RMF、Playbook 和相关资源,以提供实施 AI RMF 的指导以及更广泛地推进可信 AI。欢迎随时贡献其他指导 - 这将构成资源中心内容的大部分。贡献可能包括 AI RMF 配置文件、解释性论文、文档模板、测量和评估方法、工具包、数据集、政策或拟议的 AI RMF 与其他资源(包括标准和框架)的交叉。最终,贡献可能包括 AI RMF 案例研究、框架采用和有效性的评论、教育材料、与可信 AI 管理相关的其他技术形式的技术指导以及其他实施资源。AI 资源中心预计将包括一个标准中心和一个指标中心,以及一个术语知识库和相关的技术和政策文件。
2022 年 7 月 19 日——它同步并整合系统生命周期所有阶段的网络安全活动,涵盖逻辑和组织实体。a.在...
www.reddit.com/r/MachineLearning/comments/25lnbt/ama_yann_lecun/ www.nist.gov/srd/nist-special-database-19
随着公司的发展,这一使命从未改变,但我们实现这一目标的手段已经演变为包括利用机器学习、算法和其他先进技术的工具。其中一些工具可以被描述为“人工智能 (AI)”,尽管值得注意的是,对于该术语的含义并没有达成共识。这些工具为我们更好地匹配求职者和雇主开辟了新的机会。我们投资产品解决方案和先进技术,帮助使用我们平台的人更轻松地生活和工作。对于使用 Indeed 寻找优秀人才、与他们的首选联系并提供工作机会的中小型企业,我们的技术投资(包括人工智能和算法)可以释放他们的时间,以便他们可以花时间和金钱来帮助他们的客户并改进他们的产品。此外,我们致力于利用我们的资源推动创新,减少许多求职者在招聘过程中面临的障碍。
6 例如,欧盟正在通过《人工智能法案:制定人工智能协调规则的提案》制定新的人工智能法规。https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/AUTRES_INSTITUTIONS/COMM/COM/2021/06-02/COM_COM20210206_EN.pdf。美国国家标准与技术研究所正在响应白宫的一项行政命令,制定一项新的人工智能自愿风险管理框架。https://www.nist.gov/system/files/documents/2019/08/10/ai_standards_ fedengagement_plan_9aug2019.pdf。在国际上,国际标准化组织 (ISO) 等组织已经发布了有关人工智能可信度的新的自愿标准 https://www.iso.org/standard/77608.html?browse=tc。电气电子工程师协会 (IEEE) 也正在其“符合伦理的设计”倡议下制定 7000 系列下的一系列综合标准。正在解决的问题包括透明度、数据隐私流程和算法偏见考虑,以及儿童、学生和雇主数据治理。https://ethicsstandards.org/p7000/。关于制定数字治理的加拿大自愿标准,首席信息官战略委员会发布了一项关于道德人工智能的标准,题为“人工智能:自动决策系统的道德设计和使用”。https://ciostrategycouncil.com/standards/1012019/
NIST 欢迎对此初稿和相关实践指南提出反馈,以指导 AI RMF 的进一步发展。可以在 2022 年 3 月 29 日至 31 日的研讨会上提供意见,也强烈建议通过电子邮件分享。NIST 将在 2023 年 1 月发布 AI RMF 1.0 之前制作第二稿征求意见,并举办第三次研讨会。请在 2022 年 4 月 29 日之前将对此初稿的评论发送至 AIframework@nist.gov。
− 本概念文件中描述的方法是否总体上适用于最终的 AI RMF? − AI RMF 的范围和受众(用户)是否描述得当? − AI 风险是否被适当地构建? − 由核心(包括功能、类别和子类别)、配置文件和层级组成的结构是否能让用户适当地管理 AI 风险? − 提议的功能是否能让用户适当地管理 AI 风险? − 缺少什么(如果有的话)?
最大的挑战之一是确定与不同 AI 应用相关的风险级别。使用管理和预算办公室规定的基于风险的方法,组织可以确定哪些与 AI 相关的风险是可接受的或有可能造成不可接受的伤害。1 这种方法承认 AI 参与者会承担一些不可避免的风险,但要求参与者对风险评估保持透明,以促进问责制和创新。需要深入的、特定于行业的知识来评估解决方案并充分了解相关风险。这种方法还应针对具体情况,AI 参与者的最佳判断权重应因行业和应用而异。医疗保健、贷款、刑事司法或住房等高度敏感领域应与低风险领域区别对待。
最大的挑战之一是确定与不同 AI 应用相关的风险级别。使用管理和预算办公室规定的基于风险的方法,组织可以确定哪些与 AI 相关的风险是可接受的或有可能造成不可接受的伤害。1 这种方法承认 AI 参与者会承担一些不可避免的风险,但要求参与者对风险评估保持透明,以促进问责制和创新。需要深入的、特定于行业的知识来评估解决方案并充分了解相关风险。这种方法还应针对具体情况,AI 参与者的最佳判断权重应因行业和应用而异。医疗保健、贷款、刑事司法或住房等高度敏感领域应与低风险领域区别对待。
独立性和多样性 寻求来自不同利益相关者的反馈,以指导影响评估。由于在此初始阶段确定的风险将指导后续的开发和影响评估过程,因此,通过征求具有不同生活经历、文化背景和主题专业知识的人们的不同观点,全面了解可能出现的潜在危害至关重要。如果内部人员缺乏主题或文化多样性,可能有必要咨询第三方专家或征求可能受到系统不利影响的社区成员的反馈。