我们提出了Crystalbox,这是一个新颖的,模型的,后的,后的解释性框架,用于深钢筋学习(DRL)控制器,包括包括计算机系统在内的大型输入驱动的环境。我们将奖励函数在输入驱动的环境中的自然可分解性与分解重新转弯的解释力相结合。我们提出了一种有效的算法,以在离散和连续控制环境中生成基于未来的解释。使用自适应比特率流和拥堵控制等应用程序,我们演示了Crystal-box产生高保真解释的能力。我们进一步说明了在三种实际用例中的较高效用:对比解释,网络可观察性和指导性奖励设计,而不是先前的解释性技术来识别出色的特征。
在 2025 财政年度预算中,总统提出了一系列改革措施,旨在增加收入、扩大工人和家庭的税收抵免,并改善税收管理和合规性。这些改革涵盖税收政策的所有领域,共同打造一个更加公平和高效的税收制度。例如,商业和国际税收改革将提高企业税率和企业替代最低税率,提高股票回购的消费税率,取消 100 万美元以上员工薪酬的企业税收减免,并填补几个商业税收漏洞。其他改革将加强对外国收益的征税,减少鼓励利润转移和离岸外包的税收激励措施,这与实施全球最低税率和现代化个人税收制度的历史性国际协议相一致。该协议将有助于结束企业税率的逐底竞争,为美国企业提供公平的竞争环境,同时保护美国工人。该协议还更新了我们的国际税收规则,以提供稳定性和确定性。世界各国都在制定立法来实施全球最低税率。同样,对高收入纳税人的税收改革将增加额外收入,并有助于确保对劳动和资本收入的更平等对待。收入最高的人的所得税率将提高。资本利得和股息通常将按高收入者的普通税率征税,而对于某些富裕纳税人,允许部分资本利得收入永远逃避所得税的漏洞将被消除。将对极其富有的纳税人征收新的 25% 最低所得税。对于高收入纳税人,允许一些直通企业主逃避医疗保险税的法律漏洞将被消除,医疗保险税率将提高。对于收入最高的人,包括附带权益偏好和同类交换房地产偏好在内的其他漏洞也将被消除。这些改革将大幅削减允许富人为其投资收入支付较低税率的税收优惠,并加剧收入和财富差距,包括性别、地域、种族和民族之间的差距。最后,预算将扩大工人和家庭的税收抵免,减少儿童贫困并扩大机会。儿童税收抵免将扩大至 2025 年,并将永久实现全额退还、每月确定并提前支付。改革抵免的执行将促进人们的接受。劳动所得税抵免也将扩大,以覆盖更多没有孩子的工人。2021 年《美国救援计划法案》首次颁布并在 2022 年《通胀削减法案》中延长的保费税收抵免扩展将永久化,让数百万家庭能够负担得起医疗保险。其他改革将支持住房和城市发展,取消化石燃料税收优惠,弥补遗产税和赠与税漏洞,并改善税收管理和合规性。
允许将本工作的全部或一部分供个人或课堂使用的数字或硬副本授予,而没有费用,只要副本不是盈利或商业优势,并且副本带有此通知和首页上的完整引用。必须尊重他人拥有的这项工作的组件版权。允许用信用摘要。否则复制或重新出版以在服务器上发布或重新分配到列表,需要事先特定的许可和/或费用。请求权限从permissions@acm.org。
我们介绍了CEMA:c ausal e xplanations in m ulti-themens stystems;在动态的顺序多代理系统中创建因果自然语言解释的框架,以构建更值得信赖的自主代理。与假定固定因果结构的先前工作不同,CEMA仅需要一个概率模型来正向缩减系统状态。使用这种模型,CEMA模拟了反事实世界,这些世界识别了代理决定背后的显着原因。我们评估CEMA的自动驾驶运动计划任务,并在各种模拟场景中对其进行测试。我们表明,即使存在大量其他代理商,CEMA正确地识别了代理决定背后的原因,并通过用户研究表明,CEMA的解释对参与者对自动驾驶汽车的信任具有积极影响,并且对其他参与者的高度基线解释的评价也很高。我们以注释作为HeadD数据集发布了收集的解释。
政策解释是描述自主系统行为的过程,在有效地将代理商的决策理由与人类合作者联系起来,对于安全的现实世界部署至关重要。在有效的人类机器人团队中更为至关重要,良好的沟通允许团队通过在团队内实现价值一致性在不确定的情况下成功地适应和进步。本论文提出的提议是通过开发以人为以人为本的可解释的AI(XAI)技术来改善人机团队的,该技术使自主代理人能够通过多种方式来传达其cap骨和局限性,并教学和实现人类团队的行为作为决策Sys-tems-tems-tems-tems-tems-tems-tems-Tems和Manders belds buits ind buits int y hiri systyst in hri hri hri hri hri hi ri hri hi ri hi ri hi ri。
在某些情况下,XAI系统无法尊重用户输入[40]。系统应该如何反应?对于低风险场景,虚幻的代理可能是一个有用的工具。游戏设计师将其用作保留其僵化的游戏故事的补充机制[11,31]。为了允许持续的用户代理,用户能够观察其输入的效果,但输入对基础算法没有影响。Vaccaro等。[43]在社交媒体环境中显示,无论其有效性如何,用户“对控制的存在更加满意”。一些已经利用虚幻代理的日常系统包括人行横道按钮和电梯闭门按钮。虚幻的代理只能设计出在低风险场景中已经存在的“真实”代理体验,以避免用户欺骗并最大程度地减少道德问题的影响。可能受益于虚幻的机构的这种情况的示例包括在培训环境中的XAI系统[16]。
在过去的几年中,深度卷积神经网络一直在验证和识别场景中推动面部识别(FR)技术的边界。尽管准确性很高,但他们经常因缺乏解释性而受到批评。对了解深面识别系统的决策过程的需求越来越不断增加。最近的研究调查了视觉显着性图作为一种解释,但在面部识别的背景下,它们通常缺乏讨论和分析。本文集中于可解释的面部验证任务,并想出了新的解释框架。首先,提供了基于显着的解释方法的定义,该方法的重点是深FR模型做出的决策。其次,提出了一种名为corrrise的新型模型不合时宜的方法来产生显着图,该图显示了任何给定的面部图像的相似区域和不同区域。然后,一种评估方法旨在衡量面部验证中一般视觉显着性解释方法的性能。最后,实质性的视觉和定量结果表明,与其他可解释的面部验证方法相比,提出的Corrrise方法具有有希望的结果。
深度学习模型在从培训数据中学习复杂的模式和概念方面表现出了显着的功能。但是,最近的发现表明,这些模型倾向于在很大程度上依赖于图像背面中存在的简单易懂的特征,而不是它们旨在进行分类的主要概念或对象。这种现象对图像分类器构成了挑战,因为图像中关键的要素可能被掩盖。在本文中,我们提出了一种新的方法来解决这个问题,并通过图像分类器来改善主要概念的学习。我们的中心思想围绕着同时指导模型在分类任务期间对前景的关注。通过强调封装主要感兴趣的主要观察的前景,我们旨在将模型的焦点转移到背景的主要影响下。为实现这一目标,我们引入了一种机制,该机制鼓励该模型分配足够的关注对前景。我们研究了各种策略,包括修改损失函数或合并其他架构组件,以使分类器能够有效地捕获图像中的主要概念。从事方面,我们探讨了不同前景注意机制对模型性能的影响,并提供了对其有效性的见解。通过基准数据集的广泛实验,我们证明了我们提出的方法在提高图像分类器的分类准确性方面的功效。我们的发现突出了前景注意力在增强图像中主要概念的模型理解和表示时的重要性。这项研究的结果有助于推进图像分类领域,并提供有价值的见解,以开发更健壮和准确的深度学习模型。关键字:深度学习;图像分类;前景的关注;概念学习;模型增强。
反事实解释(CES)已成为解释神经网络分类器的主要方法的越来越多的兴趣。通常,输入输出对的CES定义为具有最小距离的数据点,该数据点与输入分类的输入最小距离,而该输入与输出标签相比。要解决模型参数时很容易无效的确定问题(例如,重新培训)研究提出了方法来证明在模型参数变化下由标准球界定的CES鲁棒性。但是,针对这种鲁棒性形式的现有方法并不完整,它们可能会产生令人难以置信的CES,即离群值WRT WRT训练数据集。实际上,没有现有的方法同时优化邻近性和合理性,同时保留鲁棒性保证。在这项工作中,我们提出了可证明的强大和合理的反事实表达(PREPLACE)1,这是一种利用强大优化技术来促进上述文献中限制的方法。我们制定了一种迭代算法来计算可证明可靠的CES并证明其收敛性,健全性和完整性。通过涉及六个基线的比较实验,其中五个靶向鲁棒性,我们表明,在三个评估方面,预言实现了针对指标的最新表现。关键字:可解释的AI;反事实解释;解释的鲁棒性
认知科学关于人们如何理解解释的见解对于开发可解释人工智能 (XAI) 中以用户为中心的稳健解释颇具指导意义。我调查了人们在构建解释和从中做出推断时表现出的主要倾向,这些倾向与为人工智能系统提供决策自动解释有关。我首先回顾了人们在构建解释时表现出的一些倾向的实验发现,包括解释深度错觉、直觉解释与反思解释以及解释立场的证据。然后,我考虑了人们如何推理因果解释的发现,包括推理抑制、因果折扣和解释简单性的证据。我认为,XAI 努力的核心是要求人工智能系统提供的自动解释应该对人类用户有意义。