案例研究、比较、统计数据、研究和建议均按“原样”提供,仅供参考,不应作为运营、营销、法律、技术、税务、财务或其他建议的依据。Visa Inc. 不对本文档中信息的完整性或准确性做任何保证或陈述,也不承担因依赖此类信息而产生的任何责任或义务。本文中包含的信息不作为投资或法律建议,鼓励读者在需要此类建议时寻求有能力的专业人士的建议。在实施任何新策略或做法时,您应咨询您的法律顾问,以确定哪些法律法规可能适用于您的具体情况。任何建议、计划或“最佳实践”的实际成本、节省和收益可能会因您的特定业务需求和计划要求而异。从本质上讲,建议并不能保证未来的表现或结果,并且会受到难以预测或量化的风险、不确定性和假设的影响。所有品牌名称、徽标和/或商标均为其各自所有者的财产,仅用于识别目的,并不一定意味着产品认可或与 Visa 有关联。
自从约翰·麦卡锡和马文·明斯基在麻省理工学院成立人工智能实验室,首次开展人工智能 (AI) 协调研究以来,已经过去了 60 多年。从那时起,人工智能已经发展成为一种应用广泛的工具,使我们能够从根本上重新思考如何整合、分析和使用数据进行决策。越来越多的研究证明,人工智能可以为金融行业带来诸多优势:提供新的风险管理和合规方法、降低运营成本、提高金融包容性、实现超个性化以及自动化任务,从而提高运营效率。然而,金融服务提供商在日常任务中全面采用基于人工智能的系统的速度很慢,部分原因是大型遗留 IT 环境可能无法适应高级分析。在金融领域更广泛采用人工智能的另一个高度相关的障碍与可解释性概念有关。也就是说,人工智能解决方案通常被称为“黑匣子”,因为通常很难追踪算法得出解决方案所采取的步骤。这种缺乏透明度和可解释性的问题对于政策制定者和监管者来说是一个关键点,他们努力推广和验证部署后稳健且相对稳定的模型。例如,在信用评分方面,监管部门需要确保决策公平公正。此外,GDPR 提供了解释权,使用户能够要求解释影响他们的决策过程。因此,创新技术的采用必须以负责任、值得信赖的方式进行,特别是在影响整体经济的金融领域。除了对可解释性的基本需求之外,金融部门还面临着越来越复杂的对手,他们有能力实施大规模数据泄露、数据篡改和机密信息丢失。这同样需要能够处理噪音并在对抗性数据破坏的情况下持续存在的稳健而稳定的方法。在此背景下,本研究主题旨在纳入原创论文,提出用于全球或本地解释的创新方法,以及评估应用于金融问题集的基于人工智能的系统的公平性和稳健性。Hadji Misheva 等人的研究特别关注可解释性的受众依赖性,探讨了瑞士金融行业内的各个利益相关者如何看待可解释性,并深入讨论了当前 XAI 技术的潜力和局限性。这样的研究通过弥合文献中部署的可解释技术与行业需求之间的差距,为文献做出了重要贡献。Gramespacher 和 Posth 的研究对研究选择做出了另一项贡献,重点关注如何利用可解释的人工智能来优化回报目标函数,并着眼于信用评估的典型用例。作者特别指出,如果预测不准确导致成本严重不对称,则应使用准确度指标来代替经济目标函数。此外,所讨论的应用和结果证实了可解释人工智能的一个关键优势
6 例如,欧盟正在通过《人工智能法案:制定人工智能协调规则的提案》制定新的人工智能法规。https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/AUTRES_INSTITUTIONS/COMM/COM/2021/06-02/COM_COM20210206_EN.pdf。美国国家标准与技术研究所正在响应白宫的一项行政命令,制定一项新的人工智能自愿风险管理框架。https://www.nist.gov/system/files/documents/2019/08/10/ai_standards_ fedengagement_plan_9aug2019.pdf。在国际上,国际标准化组织 (ISO) 等组织已经发布了有关人工智能可信度的新的自愿标准 https://www.iso.org/standard/77608.html?browse=tc。电气电子工程师协会 (IEEE) 也正在其“符合伦理的设计”倡议下制定 7000 系列下的一系列综合标准。正在解决的问题包括透明度、数据隐私流程和算法偏见考虑,以及儿童、学生和雇主数据治理。https://ethicsstandards.org/p7000/。关于制定数字治理的加拿大自愿标准,首席信息官战略委员会发布了一项关于道德人工智能的标准,题为“人工智能:自动决策系统的道德设计和使用”。https://ciostrategycouncil.com/standards/1012019/
近年来,人工智能系统问责制的研究日益增多,不仅吸引了学术界[14]和工业界[2, 4]的关注,也吸引了政府[18]和公共部门[11]的关注。实现可问责的人工智能系统需要了解在人工智能系统整个生命周期中做出关键决策的人是谁,例如,系统是如何设计和构建的,如何使用和维护,以及如何遵守法律、法规和标准[10]。实现这一点的关键一步是有效地获取证据。首先,需要回答两个问题:需要获取哪些类型的证据以及如何获取这些证据。回答这两个基本问题将有助于为人工智能系统实现功能性证据获取组件,
摘要我们提出,可信赖的解释性接受度量指标,以使用专家在循环中评估AI系统。我们的指标通过量化AI系统产生的解释与专家根据其专业知识和经验提供的推理之间的解释之间的距离来计算接受。我们的指标还评估了专家的信任,使用我们的信任机制包括不同的专家组。我们的指标很容易适应任何可解释的AI系统,并用于可信赖的AI系统的标准化过程。我们使用高识别医学AI的应用说明了拟议的度量,该指标是预测导管癌的原位(DCIS)复发。我们的指标成功地捕获了专家在DCIS复发中AI系统的解释性。
在2018年收购美国公司Enernex后,已扩展了有关CESI提供的有关工程和电力系统咨询服务的活动组合。Enernex是一家领先的美国电力工程和咨询公司,在电网现代化,网络安全和电力系统咨询方面提供高质量的服务。CESI和ENERNEX POTTFOLIOS BOLSTRES计划,实施和运营电力资产和电力基础设施的组合,为我们的客户提供一站式解决方案,以满足其与能源过渡挑战相关的所有需求。2018
proped.sciencemag.org/cgi/content/full/6/6/36/eaba0959/dc1补充材料,用于可信赖的节点– Free 8-用户大都会量子通信网络Siddarth Koduru Joshi*刘,托马斯·谢德(Thomas Scheidl),GuillermoCurrásLorenzo,ŽeljkoSamec,Laurent Kling,Alex Qiu,Mohsen Razavi,MarioStipčević,John G. Rarity,Rupert rarity,Rupert ursin *通讯作者。电子邮件:joshi@bristol.ac.uk于2020年9月2日出版,Sci。adv。6,EABA0959(2020)doi:10.1126/sciadv.aba0959此PDF文件包括:补充材料和方法表S1至S3无花果。S1至S5参考
此信息不是对收益的完整描述。与计划联系以获取更多信息。可能适用限制,共付额和限制。收益,保费和/或会员成本份额每年可能会改变。配方和药房网络可能随时更改。必要时会成员收到通知。请参阅覆盖范围的证据,以获取有关涵盖服务和限制或任何其他合同条件的其他信息。有关福利,排除和限制的完整说明,请参阅实际保险的实际证据。如果此信息与实际覆盖范围的实际证据之间存在差异,则在所有情况下,覆盖范围的证据都将占上风。
1 简介 机器学习 (ML) 模型广泛应用于许多实际应用的决策过程。现代 ML 方法的快速发展、实际成就和整体成功 [LeCun et al. , 2015; Jordan and Mitchell, 2015; Mnih et al. , 2015; ACM, 2018] 保证了机器学习将作为一种通用计算范式盛行,并将找到越来越多的实际应用,其中许多与我们生活的各个方面有关。不幸的是,ML 模型有时会灾难性地失败 [Zhou and Sun, 2019; CACM Letters to the Editor, 2019]。它们还可能由于模型中的偏见(例如种族、性别、年龄)而支持糟糕的决策 [Angwin et al. , 2016]。由于脆弱性,它们的决策可能会令人困惑 [Szegedy et al. , 2017]。 ,2014;Goodfellow 等人,2015]。因此,迫切需要了解 ML 模型的行为,分析模型(或用于训练模型的数据)的(潜在)故障,对其进行调试并可能进行修复。这引起了人们对验证 ML 模型操作的兴趣日益浓厚 [Ruan 等人,2018;Narodytska,2018;Narodytska 等人,2018b;Katz 等人,2017],同时也激发了旨在设计可解释人工智能(XAI)方法的努力 [Ribeiro 等人,2018;Lundberg 和 Lee,2017;Ignatiev 等人,2018;Narodytska 等人,2018a;Ribeiro 等人, 2016;伊格纳季耶夫等人。 , 2019a;