消费者技术协会®(“CTA”)® 1 谨此提交这些意见,以回应美国国家标准与技术研究所(“NIST”)关于 NIST 人工智能风险管理框架(“框架”)的信息请求(“RFI”)。 2 CTA 赞扬 NIST 在这些问题上的深思熟虑的工作以及建立自愿框架的努力,将可信度考虑因素纳入人工智能(“AI”)产品、服务和系统的创建和使用中。CTA 特别同意框架提出的适应性、基于风险、以结果为导向、自愿性和非规定性等属性,这些属性将共同促进公众信心和信任。CTA 同意 NIST 的说法,因为道德价值观没有客观标准,部分原因是这些价值观植根于特定社会或文化的规范和法律期望,因此普遍认为“必须以值得信赖和负责任的方式设计、开发、使用和评估人工智能,以促进公众信心和信任。” 3 原则和框架(例如 NIST 正在制定的原则和框架)将对 AI 系统的发展产生持久影响,只要利益相关者“认可”。如果这些原则和框架鼓励开发准确、合乎道德、包容和值得信赖的 AI,则最有可能统一采用和尊重全球 AI 相关原则和框架。同时
对 RFI - NIST AI 风险管理框架的评论 消费者技术协会®(“CTA”)® 1 谨提交这些评论,以回应美国国家标准与技术研究所(“NIST”)关于 NIST 人工智能风险管理框架(“框架”)的信息请求(“RFI”)。 2 CTA 赞扬 NIST 在这些问题上的深思熟虑的工作以及建立自愿框架的努力,将可信度考虑因素纳入人工智能(“AI”)产品、服务和系统的创建和使用中。CTA 特别同意拟议的框架属性,即适应性、基于风险、以结果为导向、自愿性和非规定性,这些属性将共同促进公众信心和信任。CTA 同意 NIST 的说法,因为道德价值观没有客观标准,部分原因是这些价值观植根于特定社会或文化的规范和法律期望,因此普遍认为“必须以值得信赖和负责任的方式设计、开发、使用和评估人工智能,以促进公众信心和信任。” 3 原则和框架(例如 NIST 正在制定的原则和框架)将对 AI 系统的发展产生持久影响,只要利益相关者“认可”。如果这些原则和框架鼓励开发准确、合乎道德、包容和值得信赖的 AI,那么全球 AI 相关原则和框架的统一采用和尊重就最有可能。同时,这些政策必须提供自愿、灵活的监督和合规解决方案,同时保留创新的基本经济激励。AI 技术为人类和社会发展提供了巨大的机会,CTA 同意 AI 必须值得信赖。AI 可以促进包容性增长,改善人民的福利和福祉,并增强全球创新和生产力。它对我们的国家利益也具有深远的前景。事实上,正如第 13859 号行政命令所述,“继续保持美国在 AI 领域的领导地位对于维护美国的经济和国家安全以及以一致的方式塑造 AI 的全球发展至关重要
A.利益声明 VT-ARC 和 VT 都非常有兴趣支持美国国家标准与技术研究所 (NIST) 开发一个框架,该框架可用于改善与人工智能 (AI) 相关的个人、组织和社会风险管理。VT-ARC 和 VT 共同努力支持许多不同的人工智能 (AI) 和机器学习 (ML) 计划,并提供 AI/ML 领域最前沿的技术进步。弗吉尼亚理工大学应用研究公司 (VT-ARC)。VT-ARC 是一家私营非营利性 501(c)(3) 应用研究公司,隶属于弗吉尼亚理工学院暨州立大学 (Virginia Tech 或 VT)。VT-ARC 通过识别、开发和应用创新分析和先进技术来加速解决具有国家重要意义的复杂问题。我们利用弗吉尼亚理工大学丰富的多学科研究和创新生态系统,将多个领域的战略、政策、技术和运营考虑因素结合起来。VT-ARC 在过去 10 年中与多个联邦政府组织、行业合作伙伴、国防部创新组织以及其他高等教育和研究机构合作良好。VT-ARC 已在两个单独的 PIA 上进行过表演,一个与 ARL 合作近五年,另一个与 AFRL/AFOSR 合作七年。我们的合作伙伴包括 ARL、ARO、AFOSR、OUSDR&E 和 DTRA。我们目前支持 16 个研究、开发、规划和测试项目。VT-ARC 总部位于弗吉尼亚州阿灵顿,总面积超过 16,000 平方英尺,包括 13,000 平方英尺的非机密办公空间、额外的 TS 安全机密空间以及可容纳多达 200 人活动的场地建筑通道。我们的第二个办公室位于弗吉尼亚州布莱克斯堡。虽然 VT-ARC 没有指定的实验室空间,但我们可以通过弗吉尼亚理工大学使用大学实验室空间。VT 休谟中心智能系统实验室 (ISL)。弗吉尼亚理工大学休谟中心认为,为学生提供研究机会是培养下一代国家安全和技术领导者的关键。我们的研究机会让学生能够在他们喜欢的学科中获得实践经验,与该领域屡获殊荣和专家级的研究人员建立联系,并更充分地探索学科,将兴趣发展为激情和职业。英联邦网络计划 (CCI)。随着包含机器学习的算法被集成到生产系统中,数据科学、机器学习和网络安全之间的界限变得越来越模糊。还需要通过严格的测试和评估流程对复杂系统进行验证,以确保嵌入在系统中的算法在完成具有更大自主性和操作影响的任务时的有效性和安全性。这些系统的设计和开发需要反映其预期的操作环境、代表性人类用户和操作任务/任务。休姆中心的 ISL 开展研究,以解决三个技术重点中的国家安全关键领域:1) 数据科学、机器学习、人工智能,2) 网络安全和复杂系统工程,以及 3) 复杂系统设计、验证和测试与评估 (T&E)。VT 在开发 AI 保证方法和管理 CCI AI 测试平台方面发挥着领导作用。CCI 支持来自 30 多所不同弗吉尼亚大学和学院的 70 多名参与者。CCI 的 AI 保证团队开发模型
简介 Microsoft Corporation(“Microsoft”)欢迎有机会响应 NIST 关于开发 AI 风险管理框架(“AI RMF”)的信息请求。作为 AI 的开发者和用户,Microsoft 致力于帮助每个人和组织释放其巨大潜力。关键在于确保以负责任且受用户信任的方式开发和部署 AI。因此,我们支持 NIST 开发 AI RMF 的努力,它可以成为建立信任和推动 AI 技术创新的重要组成部分。我们期待为 AI RMF 的发展做出贡献。正如 NIST 所认识到的,AI RMF 应该通过广泛、共识驱动、开放和协作的过程来开发,其中包括研讨会和其他提供意见的机会。Microsoft 与 NIST 的目标是一致,即开发一个自愿框架,该框架由将政策、业务、技术和法律方法结合起来以改善风险管理的成果和流程组成。NIST 面临的一个关键挑战是创建与现有 NIST 网络安全和隐私框架一致的 AI RMF。此外,AI RMF 的创建方式应灵活且能够适应技术的进步、负责任的 AI 实践的成熟以及与 AI 系统相关的政策和法规的不断发展。为了实现这一目标,Microsoft 鼓励 NIST 采取 AI RM 方法
我们鼓励 NIST 利用已纳入其他框架的原则,例如 NIST 网络安全框架 (CSF) 和 NIST 隐私风险管理框架,以及赞助组织委员会 (COSO) 框架中体现的五项原则:治理;战略;绩效;审查和修订;信息、沟通和报告。2 我们可以预见,NIST CSF 已经适应了 AI 的一些必需原则,隐私风险管理框架也是如此。我们鼓励 NIST 继续采用基于结果的 AI 方法,以便开发人员和集成商有明确的目标,并且可以通过多种方式满足这些目标。1. 行业中观察到的挑战通过德勤与蓬勃发展的 AI 行业的直接接触,我们观察到一些挑战,这些挑战可以通过开发 AI 风险管理框架来缓解或解决。这些挑战中的许多挑战的共同点是实施组织是否拥有专门的综合治理计划。我们将人工智能风险分为以下三个领域,在这些领域中,拥有透明、记录和可辩护流程的结构化风险管理框架将会有所帮助:
作为一个非盈利组织,MITRE 公司通过运营多个联邦资助的研究和开发中心和实验室以及参与公私合作伙伴关系,致力于解决挑战我们国家安全、稳定、保障和福祉的难题,以维护公众利益。与联邦、州和地方政府以及行业和学术界合作,使 MITRE 具有独特的优势。MITRE 致力于发现新的可能性,创造意想不到的机会,并通过开创性的研究为公众利益引领,在人工智能 (AI)、直观数据科学、量子信息科学、健康信息学、政策和经济专业知识、值得信赖的自主权、网络威胁共享和网络弹性等领域将创新理念变为现实。
6 月底,美国政府问责局 (GAO) 发布了其人工智能问责框架(人工智能:联邦机构和其他实体的问责框架 | 美国政府问责局)。我们的框架旨在协助监督人工智能系统的联邦项目经理以及评估人工智能系统的第三方审计人员。
● 人工智能参与者需要创建全面的计划,以持续治理和保证其所有人工智能系统,从而保护自己和社会免受人工智能带来的独特风险。● 人工智能的风险管理需要一种综合的方法,将人力和流程监督结合起来,而不仅仅是模型或数据风险管理。● 人工智能参与者可以使用机器学习保证方法,该方法利用许多组织已经熟悉的成熟、有效的 CRISP-DM 框架来加速采用和教育。● 要实现人工智能系统的透明度、公平性和问责制,组织需要将背景、可验证性和客观性作为其治理和保证工作的首要目标。
本文表达的任何观点均为作者观点,而非 IZA 观点。本系列中发表的研究可能包括政策观点,但 IZA 不代表任何机构政策立场。IZA 研究网络致力于遵守 IZA 研究诚信指导原则。IZA 劳动经济研究所是一个独立的经济研究机构,开展劳动经济学研究,并就劳动力市场问题提供基于证据的政策建议。在德国邮政基金会的支持下,IZA 运营着世界上最大的经济学家网络,其研究旨在为我们这个时代的全球劳动力市场挑战提供答案。我们的主要目标是在学术研究、政策制定者和社会之间架起桥梁。IZA 讨论文件通常代表初步工作,并被分发以鼓励讨论。引用此类文件时应说明其临时性质。修订版可直接从作者处获得。