• 治理框架。金融机构的董事会和高级管理层最终要对其活动负责,包括 AI 用例。也就是说,金融机构使用 AI,特别是在其核心业务活动中,需要在整个 AI 生命周期中明确分配角色和职责。重要的是,治理框架可能需要指定人为干预的作用,以尽量减少 AI 系统的有害后果。• AI 专业知识和技能。在没有相应专业知识和技能的情况下更广泛地采用 AI,可能会导致对金融机构和金融系统风险的理解不足和无效管理。因此,金融当局可以考虑澄清他们对计划在其核心业务活动中扩大 AI 使用的金融机构所具备的专业知识和技能的期望。• 模型风险管理。人工智能模型缺乏可解释性可能会导致模型风险增加。当模型风险管理指南到位时,当局可能会发现传达与可解释性相关的期望并就选择可解释性技术和评估其有效性时要考虑的关键品质提供指导很有帮助。• 数据治理和管理。金融机构使用人工智能会导致各种数据相关问题。虽然数据治理/管理的许多相关要素都包含在现有法规中(例如模型风险、消费者隐私和信息安全法规),但金融当局可能希望评估这些是否足够或需要加强,或者是否有必要发布解决任何人工智能数据治理和管理相关问题的指南。• 新的/非传统的参与者和新的商业模式/安排。为避免潜在的监管漏洞,需要评估与提供金融服务的新/非传统参与者相关的法规,以确定是否需要进行调整,以考虑到跨部门对使用人工智能的期望。对于提供涉及人工智能的金融服务(例如银行即服务)的多层安排,可能需要进行类似的监管评估,这可能会使金融当局难以将责任归咎于生态系统中的各个参与者。• 监管范围 - 第三方。云和人工智能服务提供商集中于少数几家大型全球科技公司,这加强了根据现有法律权力为这些服务提供商建立直接监督框架的论点。一些司法管辖区已朝这个方向发展,但普遍的做法仍然是依赖金融机构来管理来自这些第三方关系的风险。
主要关键词