随着人工智能(AI)的兴起,对AI的关注,导致对安全,隐私,安全和公平性的危害正在加剧。尽管正在尝试制定法规的尝试正在进行,诸如《欧盟AI法》和2023年白宫行政命令之类的倡议持怀疑态度,但对此类法规的有效性充满了持怀疑态度。本文探讨了为AI应用程序解释性设计政策的跨学科范围,因为与欧盟一般数据保护法规相关的广泛讨论的“解释权”是模棱两可的。为了制定可解释性的实用指导,我们进行了一项实验研究,其中涉及在十个星期内具有AI和政策背景的研究人员之间的持续合作。目的是确定通过互际式的努力,我们是否可以就AI的解释性达成共识,该政策比目前的准则更清晰,更可行,更可行,更可执行。我们分享了九个观察结果,这些观察结果来自迭代政策设计过程,其中包括起草政策,试图遵守(或绕过它),并每周共同评估其有效性。主要观察结果包括:迭代和持续反馈对于随着时间的推移改善政策草案,在政策设计期间必要讨论合规性的证据,并且发现人类受试者的研究是一种重要的证据形式。这对政策制定者具有有希望的含义,表明可以实现对AI应用的实际和有效调节。我们以乐观情绪的注释,认为可以在适度的时间范围内实现有意义的政策,并且在政策设计方面的经验有限,这是我们团队中的学生研究人员所证明的。
两架波音 737-Max 商用客机最近坠毁,引发了人们对嵌入式计算系统 (MCAS) 的重要质疑,该系统的安装是为了让新的 737 机型在人类飞行员眼中更像旧机型 [ 1 ]。提出的关键问题之一是,人类飞行员并不知道该系统的存在,而且该系统的“智能”容易出现单点故障(迎角传感器)[ 1 ]。人工智能 (AI) 将在这种系统中发挥越来越重要的作用,尤其是当自主机器在太空或深海等遥远而恶劣的环境中运行时 [ 2 ]。在这种恶劣的环境下,当发生故障时,准确评估问题所在至关重要,这样设计人员才能从故障中吸取教训。同时,当此类系统做出基于证据的决策时,解释为什么以及如何做出某个决策至关重要。欧盟法律要求对此类解释进行解释,这是 2016 年颁布的“解释权”的一部分,主要是在对公民产生不利影响的决策背景下。现代人工智能系统利用嘈杂且通常不确定的数据来代表人类做出决策。当这些系统发挥作用时,它们具有很大的实用性,可用于自动驾驶汽车和在恶劣环境中运行的自主机器人等。除了实用性之外,这些系统还可以采用自学模式,使它们在国际象棋和围棋等游戏中超越人类的能力 [ 3 – 5 ]。然而,与人类智能一样,人工智能有时也未能实现目标。一个众所周知的失败案例是特斯拉 Model S,由于人工智能对白色卡车的特征提取和智能理解不准确,导致汽车在“自动驾驶模式”下发生致命车祸 [6]。人工智能的失败并不令人惊讶。智能是基于不确定性做出决策的行为。这一事实将人工智能与基于流程图设计的非智能决策系统区分开来,就像大多数计算机程序一样 [7]。对于人类来说,在童年和成年时期,许多类型的学习都需要这样的失败。大多数机器学习 (ML) 人工智能算法还依赖于“训练阶段”,在此阶段,工件在人类标记的数据集上进行指导,并从失败中学习,然后才被允许在非标记数据上“野外”运行 [8]。
太阳能规划,美国规划协会 (APA) 太阳能开发正在全国范围内迅速增长——房主正在安装太阳能,企业对太阳能有需求,公用事业正在向太阳能过渡。全国各地的社区都认识到太阳能是一种资源,它提供多种好处,包括节省能源费用、减少排放、提高弹性以及经济发展和就业增长的机会。地方政府的分区和开发方法会对太阳能增长产生重大影响。纳入太阳能分区最佳实践为促进太阳能增长奠定了基础,同时平衡了社区中的其他发展重点。虽然越来越多的城市和县在其土地使用法规中纳入了太阳能分区最佳实践,但许多地方分区方法仍然无意中阻碍了太阳能的发展。这可能是由于分区法规中缺少太阳能法规或有意或无意的限制性法规——这两者都增加了太阳能安装所需的时间和费用。地方政府的分区法规中没有太阳能,这意味着很多解释权都留给了规划和分区部门的官员和/或分区委员会、规划委员会或同等实体的成员。由于没有分区法规形式的指导,这些官员或实体可以根据自己的意愿处理太阳能装置并做出临时决定,这个过程是主观的。这种主观性可能会使想要安装太阳能的家庭和企业的过程变得复杂和延长。将太阳能法规纳入分区条例应消除一些模糊性和不确定性,而不会对太阳能开发施加不必要的限制或障碍。有意促进太阳能开发的地方政府应考虑在分区条例中纳入基础太阳能法规,例如目的、关键术语的定义、允许用途的澄清和开发标准。这些信息提高了流程的透明度和开发标准的清晰度,并可以有组织、高效地促进当地太阳能市场的增长。本指南重点介绍了分区或土地使用规范中组织有序、透明且一致的辅助使用太阳能法规的关键组成部分。对主要用途太阳能指导感兴趣的社区应查看包含来自全国各地的示范分区条例的部分。许多示范条例都包含主要用途太阳能的具体标准。SolSmart 计划指南在规划和分区类别中拥有多项学分,涉及辅助使用和主要用途太阳能的最佳实践。
随着人工智能 (AI) 的不断进步和金融科技的热情高涨,信用评分等应用引起了学术界的广泛兴趣。信用评分是一种帮助金融专家更好地决定是否接受贷款申请的方法,这样违约概率高的贷款就不会被接受。表现良好的信用评分模型能够区分更有可能违约的贷款申请和不太可能违约的贷款申请,这是非常有益的,因为它们减少了贷款审批流程所需的时间,并可以节省大量成本。除了此类信用评分模型面临的嘈杂和高度不平衡的数据挑战之外,最近出台的法规,例如《通用数据保护条例》(GDPR) 和《平等信贷机会法》(ECOA) 引入的“解释权”,也增加了对模型可解释性的需求,以确保算法决策是可以理解和连贯的。因此,这要求黑盒机器学习 (ML) 模型(如 ANN 和 XGBoost)不仅在分类性能上准确,还必须能够解释它们的预测,以便金融专家愿意信任和采用这样的模型。最近提出的一个有趣概念是可解释的人工智能 (XAI),其重点是使黑盒模型更具可解释性和可说明性。多年来,已经提出了多种旨在通过规则或视觉说明来解释 ML 算法预测的 XAI 方法,其中一些是本质上可解释的模型,而另一些是事后可解释性技术。在这项工作中,我们旨在提出一种既准确又可解释的信用评分模型,并且总体上比 Dash 等人 (2018) 提出的最先进的基准通过列生成布尔规则 (BRCG) 方法更好;Dash 等人是 FICO 最新的可解释机器学习挑战赛的获胜者。本工作中进行的实验表明,最先进的 XGBoost 模型比逻辑回归 (LR)、决策树 (DT)、随机森林 (RF) 和人工神经网络 (ANN) 技术以及基准 BRCG 模型表现更好,在 HELOC 数据集上的 ROC 曲线下面积 (AUROC) 为 0.78,在 Lending Club 数据集上的 AUROC 为 0.71。XGBoost 模型通过三种 XAI 技术得到进一步增强;SHAP+GIRP 提供全局解释,Anchors 提供基于局部特征的解释,ProtoDash 提供基于局部实例的解释。这三种类型的解释为可解释性提供了全面的解决方案,因为不同的人在不同情况下需要不同的解释。通过使用功能基础(即通过形式化措施评估)、应用基础(即由人类专家评估)和人为基础(即通过对文献的分析(通常由普通人评估)表明,所提供的解释简单、一致、完整,并且满足了正确性、有效性、易理解性、细节充分性和可信度等六项预定假设。
统一专利法院 (UPC) 自 2023 年 6 月 1 日成立以来,已审理了许多侵权诉讼。迄今为止,大多数诉讼都依赖于字面侵权。UPC 非常重视根据权利要求的技术功能对权利要求进行解释,这意味着默认采用“目的性构造”。然而,海牙地方分院 (HLD) 最近的一项裁决援引了基于荷兰测试的等同原则。我们回顾了这一决定,并讨论了其与 UPC 之前的侵权诉讼的相关性。直接和间接侵权统一专利法院协议 (UPCA) 考虑直接侵权(UPCA 第 25 条)和间接或共同侵权(UPCA 第 26 条)。到目前为止,大多数案件都涉及直接侵权。然而,在 Hand Held Products v Scandit 一案中,慕尼黑地方审判庭 (MLD) 在批准初步禁令时认为,由于 Scandit 提供的软件开发工具包是该发明“与基本要素有关的手段”,客户可以使用它来生产所要求保护的条形码扫描设备,从而将该发明付诸实施,因此很可能存在共同侵权。 通过目的性构造侵权 正如我们在最近一篇题为“UPC 无效性”的文章中讨论的那样,UPC 确定每个术语的技术含义并确定所要求保护的发明所要解决的潜在问题,因此实际上应用了对相关权利要求的目的性构造。 权利要求特征必须始终根据整个权利要求来解释(VusionGroup v Hanshow Technology),并且必须始终使用说明书和附图作为解释权利要求的辅助手段(Nanostring v 10x Genomics)。在 Edwards v Meril 案中,MLD 考虑了一种心脏瓣膜支架,其“侧支柱相对于流动轴平行”。MLD 的结论是,“平行”一词不能从严格的数学意义上理解,因为图形显示略微凹陷的形状是可能的,并且不会破坏专利中解释的技术效果:与流动方向的对齐在瓣膜压接时不会改变。因此,“平行”一词被有目的地解释。 等同侵权 在 Plant-e v Arkyne 案中,HLD 近期作出了第一项关于等同侵权的判决。权利要求涉及一种燃料电池,该燃料电池使用微生物氧化化合物作为燃料并产生能量。这种燃料电池在本领域中被称为微生物燃料电池 (MFC)。涉案专利教导了添加植物通过光合作用持续提供化合物,以减少对外部燃料的需求。该产品被命名为植物-MFC (P-MFC)。图 1 的改编版本如下图左所示:
自从约翰·麦卡锡和马文·明斯基在麻省理工学院成立人工智能实验室,首次开展人工智能 (AI) 协调研究以来,已经过去了 60 多年。从那时起,人工智能已经发展成为一种应用广泛的工具,使我们能够从根本上重新思考如何整合、分析和使用数据进行决策。越来越多的研究证明,人工智能可以为金融行业带来诸多优势:提供新的风险管理和合规方法、降低运营成本、提高金融包容性、实现超个性化以及自动化任务,从而提高运营效率。然而,金融服务提供商在日常任务中全面采用基于人工智能的系统的速度很慢,部分原因是大型遗留 IT 环境可能无法适应高级分析。在金融领域更广泛采用人工智能的另一个高度相关的障碍与可解释性概念有关。也就是说,人工智能解决方案通常被称为“黑匣子”,因为通常很难追踪算法得出解决方案所采取的步骤。这种缺乏透明度和可解释性的问题对于政策制定者和监管者来说是一个关键点,他们努力推广和验证部署后稳健且相对稳定的模型。例如,在信用评分方面,监管部门需要确保决策公平公正。此外,GDPR 提供了解释权,使用户能够要求解释影响他们的决策过程。因此,创新技术的采用必须以负责任、值得信赖的方式进行,特别是在影响整体经济的金融领域。除了对可解释性的基本需求之外,金融部门还面临着越来越复杂的对手,他们有能力实施大规模数据泄露、数据篡改和机密信息丢失。这同样需要能够处理噪音并在对抗性数据破坏的情况下持续存在的稳健而稳定的方法。在此背景下,本研究主题旨在纳入原创论文,提出用于全球或本地解释的创新方法,以及评估应用于金融问题集的基于人工智能的系统的公平性和稳健性。Hadji Misheva 等人的研究特别关注可解释性的受众依赖性,探讨了瑞士金融行业内的各个利益相关者如何看待可解释性,并深入讨论了当前 XAI 技术的潜力和局限性。这样的研究通过弥合文献中部署的可解释技术与行业需求之间的差距,为文献做出了重要贡献。Gramespacher 和 Posth 的研究对研究选择做出了另一项贡献,重点关注如何利用可解释的人工智能来优化回报目标函数,并着眼于信用评估的典型用例。作者特别指出,如果预测不准确导致成本严重不对称,则应使用准确度指标来代替经济目标函数。此外,所讨论的应用和结果证实了可解释人工智能的一个关键优势