2国家标准技术研究所,人工智能风险管理框架(AI RMF 1.0),2023年6月,https://doi.org/10.6028/nist.ai.100-1。 3 United States, Executive Office of the President [Joseph Biden], Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence , October 30, 2023, https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-安全和信任的发展和人工智能使用。 4加州隐私保护局,风险评估和自动决策技术法规(2024年3月),https://cppa.ca.gov/meetings/materials/20240308_item4_item4_draft_risk.pdf;科罗拉多州SB 24-205,人工智能的消费者保护(2024),https://leg.colorado.gov/bills/sb24-205。2国家标准技术研究所,人工智能风险管理框架(AI RMF 1.0),2023年6月,https://doi.org/10.6028/nist.ai.100-1。3 United States, Executive Office of the President [Joseph Biden], Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence , October 30, 2023, https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-安全和信任的发展和人工智能使用。4加州隐私保护局,风险评估和自动决策技术法规(2024年3月),https://cppa.ca.gov/meetings/materials/20240308_item4_item4_draft_risk.pdf;科罗拉多州SB 24-205,人工智能的消费者保护(2024),https://leg.colorado.gov/bills/sb24-205。
风险管理 Haleon 的风险管理已融入我们实现长期目标的战略中。Haleon 与 ESG 相关的主要风险通过 Haleon 的风险管理框架进行监控。该框架支持董事会、审计与风险委员会、执行团队、全球职能部门和业务部门之间的信息流和开放式沟通。该框架与三线模型保持一致,该模型为 Haleon 内部的风险管理分配了角色和职责。可持续发展合规与风险论坛 (CRF) 负责监控、评估和减轻可能影响潜在风险
13. ADI 的高级管理层必须将 ADI 银行账簿状况的重大变化或既定政策的例外情况通知董事会或董事会委员会,这些变化可能会对 IRRBB 风险管理框架的运作产生影响,包括 IRRBB 资本要求。ADI 的高级管理层必须确保董事会或相关董事会委员会了解 ADI 的资产负债表管理策略(包括股东权益的到期情况),并将衡量该策略的适当风险指标报告给董事会或董事会委员会。
2. 到 2024 年 9 月,联合技术服务公司(也称为华盛顿技术解决方案公司)应与内阁机构合作,向州长提交一份报告,确定与机构运营和目标相关的潜在生成式人工智能计划。该报告应评估将生成式人工智能整合到机构运营和服务中的可行性、好处和挑战。该报告还必须包括华盛顿技术解决方案公司建立基础设施以开展涉及生成式人工智能技术的项目试点的计划和时间表,包括用于测试此类项目的获批环境。3. 到 2024 年 9 月,华盛顿技术解决方案公司应与企业服务部 (DES) 合作,发布公共部门采购、使用和持续监测生成式人工智能技术使用的初步指南。这些指南应以白宫的《人工智能权利法案蓝图》和美国国家标准与技术研究所的《人工智能风险管理框架》为指导,并解决安全性和有效性、算法歧视、数据隐私和网络安全问题。这些指南应包括一项要求,即任何向机构提供高风险生成式人工智能系统的供应商必须证明其已实施符合美国国家标准与技术研究所人工智能风险管理框架的人工智能治理计划。华盛顿科技大学和教育标准与技术研究所应通过在相关机构的网站上发布的方式向公众公布这些指南。
联邦机构,包括国防部(DOD),特殊访问计划(SAP)和情报界,正在采用共同的准则,以简化和建立互惠互相评估和授权(A&A)流程(以前称为认证和认证)(C&A)。DAAPM将DCSA C&A流程过渡到风险管理框架(RMF),适用于DOD 5220.22-M,Change 2,国家工业安全计划手册(NISPOM),于2016年5月18日发布。DAAPM从以下出版物中实施RMF流程和指南:国家标准技术研究所(NIST)特别出版物(SP)800-37,修订版2,信息系统和组织风险管理框架 - 安全和隐私的系统生命周期方法; NIST SP 800-53,版本4版,联邦信息系统和组织的安全和隐私控制; NIST SP 800-53A,修订版4,评估联邦信息系统和组织中的安全性和隐私控制;国家安全系统教学委员会(CNSSI)编号1253,国家安全系统的安全分类和控制选择;以及国家安全系统指令委员会(CNSSD)504,《保护国家安全系统免受内幕威胁的指令》。将通过本手册第2节中概述的变更管理过程进行纳入这些核心文档。DAAPM还纳入了NISPOM中定义的内部威胁最低要求,这与13587号行政命令的要求,结构性改革的要求一致,以提高机密网络的安全性以及负责的机密信息的负责共享,以及总统备忘录,国家内幕人士威胁政策和行政部门威胁计划的最低标准。
24 行政部门行动的例子包括:国家人工智能计划办公室协调人工智能政策的工作;科学技术政策办公室 (OSTP) 发布了《人工智能权利法案蓝图》,国家标准与技术研究所 (NIST) 发布了《人工智能风险管理框架》——两者均旨在为负责任地开发和使用人工智能提供指导;联邦监管机构于 4 月宣布,他们共同致力于通过将现有权力应用于人工智能系统来减轻偏见和歧视;出口管制监管机构已采取行动,限制竞争对手获取对人工智能至关重要的芯片;并发布行政命令。参见立法和行政命令。参见国家人工智能计划办公室 (上次访问时间为 2023 年);《人工智能权利法案蓝图》,白宫 (上次访问时间为 2023 年);《人工智能风险管理框架》,国家标准与技术研究所 (上次访问时间为 2023 年);美国司法部民权司与消费者金融保护局、平等就业机会委员会和联邦贸易委员会官员一道承诺应对人工智能领域的偏见和歧视,美国司法部(2023 年);美国商务部对向中华人民共和国(PRC)出口先进计算和半导体制造产品实施新的出口管制,美国商务部工业和安全局(2022 年);EO 13859,《保持美国在人工智能领域的领导地位》(2019 年);EO 13960,《促进联邦政府使用可信赖的人工智能》(2020 年)。
将自己确立为无抵押小型门票贷款的强大球员后,金融科技公司正在寻求加快增长和盈利能力的耦合轨迹。鉴于不断发展的监管格局,金融机构重新设计现有风险管理框架至关重要。这对金融科技投资者社区也特别感兴趣,因为他们现在正在研究增长成果,这也有助于提高底线。纯粹的顶线增长不再是一个有吸引力的主张。此活动将为参与者提供合适的平台和工具,以与所有利益相关者在成长过程中互动。
环境,社会和治理(ESG)因素及其相关的机会和风险正在增加金融机构。可持续性不仅是道德上的考虑因素,而且是经济和基本的目标,导致ESG风险会对组织的声誉和财务可持续性产生不利影响。对于金融机构(FIS),必须通过将其集成到其整体风险管理框架中来理解并全面地解决ESG风险。这种全面的前景是必不可少的,因为ESG因素会影响一系列其他风险,每种风险都有不同程度的影响,因此需要仔细考虑。
政府使用生成式人工智能面临的一个结构性挑战是,它的“推理”本质上是不透明的,人工智能无法展示其工作。此外,生成式人工智能系统也会犯错误,有时会完全捏造事实(称为幻觉)。此外,人工智能系统的好坏取决于其数据,并会表现出各种形式的偏见。重要的是,政府不要盲目依赖人工智能的产出,并制定计划应对人工智能系统不可避免的故障。美国国家标准与技术研究所 (NIST) 有一个人工智能风险管理框架,该框架有助于指导立法者,最近的一份简介专门关注生成式人工智能。
