• 定义与 AI 系统相关的关键术语和概念,以及其目的和预期用途的范围。• 将 AI 治理与现有的组织治理和风险控制联系起来。• 与更广泛的数据治理政策和实践保持一致,特别是敏感或其他风险数据的使用。• 详细制定实验设计、数据质量和模型训练的标准。• 概述和记录风险映射和测量流程和标准。• 详细说明模型测试和验证流程。• 详细审查法律和风险职能的流程。• 确定监控、审计和审查流程的频率和细节。• 概述变更管理要求。• 概述内部和外部利益相关者参与的流程。• 制定举报政策,以促进对严重 AI 系统问题的报告。• 详细说明并测试事件响应计划。• 验证正式的人工智能风险管理政策是否符合现有法律标准以及行业最佳实践和规范。• 制定与人工智能系统可信特征大致一致的人工智能风险管理政策。• 验证正式的人工智能风险管理政策是否包括当前部署的和第三方人工智能系统。
本文表达的任何观点均为作者观点,而非 IZA 观点。本系列中发表的研究可能包括对政策的看法,但 IZA 不代表任何机构政策立场。IZA 研究网络致力于遵守 IZA 研究诚信指导原则。IZA 劳动经济研究所是一家独立的经济研究机构,开展劳动经济学研究,并针对劳动力市场问题提供基于证据的政策建议。在德国邮政基金会的支持下,IZA 运营着世界上最大的经济学家网络,其研究旨在为我们这个时代的全球劳动力市场挑战提供答案。我们的主要目标是在学术研究、政策制定者和社会之间架起桥梁。IZA 讨论文件通常代表初步工作,并被分发以鼓励讨论。引用此类论文时应说明其临时性。修订版本可直接从作者处获得。
本文表达的任何观点均为作者观点,而非 IZA 观点。本系列中发表的研究可能包括政策观点,但 IZA 不代表任何机构政策立场。IZA 研究网络致力于遵守 IZA 研究诚信指导原则。IZA 劳动经济研究所是一个独立的经济研究机构,开展劳动经济学研究,并就劳动力市场问题提供基于证据的政策建议。在德国邮政基金会的支持下,IZA 运营着世界上最大的经济学家网络,其研究旨在为我们这个时代的全球劳动力市场挑战提供答案。我们的主要目标是在学术研究、政策制定者和社会之间架起桥梁。IZA 讨论文件通常代表初步工作,并被分发以鼓励讨论。引用此类文件时应说明其临时性质。修订版可直接从作者处获得。
•制定整个组织范围的控制选择指导•向个人或组织分配责任责任•建立和维护组织的共同控制措施的目录•定期审查通用控制,并在必要时进行更新更新通用控制选择•定义和分发组织定义的参数值,以确保相关的控制程序•开发和维护策略,制定和维护策略,模板,模板,模板,模板,模板,模板,模板,模板,模板,模板,或确定策略,或者,模板,模板,模板,模板,或者,请求,并确定策略,模板,或者,模板,模板,或者•提供有关选择控件并在安全计划中进行记录的培训•领导组织选择与组织指导一致的控件的过程
本文表达的任何观点均为作者观点,而非 IZA 观点。本系列中发表的研究可能包括政策观点,但 IZA 不代表任何机构政策立场。IZA 研究网络致力于遵守 IZA 研究诚信指导原则。IZA 劳动经济研究所是一个独立的经济研究机构,开展劳动经济学研究,并就劳动力市场问题提供基于证据的政策建议。在德国邮政基金会的支持下,IZA 运营着世界上最大的经济学家网络,其研究旨在为我们这个时代的全球劳动力市场挑战提供答案。我们的主要目标是在学术研究、政策制定者和社会之间架起桥梁。IZA 讨论文件通常代表初步工作,并被分发以鼓励讨论。引用此类文件时应说明其临时性质。修订版可直接从作者处获得。
作为一个非盈利组织,MITRE 公司通过运营多个联邦资助的研究和开发中心和实验室以及参与公私合作伙伴关系,致力于解决挑战我们国家安全、稳定、保障和福祉的难题,以维护公众利益。与联邦、州和地方政府以及行业和学术界合作,使 MITRE 具有独特的优势。MITRE 致力于发现新的可能性,创造意想不到的机会,并通过开创性的研究为公众利益引领,在人工智能 (AI)、直观数据科学、量子信息科学、健康信息学、政策和经济专业知识、值得信赖的自主权、网络威胁共享和网络弹性等领域将创新理念变为现实。
我们建议 NIST 考虑将与人类价值观和意图的一致性纳入其指导原则中。1 一致的人工智能系统能够可靠地完成人类希望它们做的事情,因此一致性的概念 2 与指导原则的首要关注点直接相关,即维护“表明社会优先事项的更广泛的社会规范和价值观”。我们认为,一致性是人工智能发展的一个重要指导原则,特别是对于那些将定期与个人互动并随着时间的推移将越来越多地融入我们的经济和社区的人工智能系统而言。随着人工智能系统变得越来越强大,由一致性失败引起的风险可能会非常大。3 NIST 完全有能力强调这一点,这是人工智能风险管理面临的重要挑战。
● 人工智能参与者需要创建全面的计划,以持续治理和保证其所有人工智能系统,从而保护自己和社会免受人工智能带来的独特风险。● 人工智能的风险管理需要一种综合的方法,将人力和流程监督结合起来,而不仅仅是模型或数据风险管理。● 人工智能参与者可以使用机器学习保证方法,该方法利用许多组织已经熟悉的成熟、有效的 CRISP-DM 框架来加速采用和教育。● 要实现人工智能系统的透明度、公平性和问责制,组织需要将背景、可验证性和客观性作为其治理和保证工作的首要目标。