摘要。在探索视觉场景时,人类的扫描路径是由他们的基本注意力过程驱动的。了解视觉扫描对各种应用至关重要。传统的扫描模型预测目光的何处和何时在不提供解释的情况下变化,在理解固定背后的基本原理方面存在差距。为了弥合这一差距,我们介绍了Gazexplain,这是一项关于视觉扫描预测和解释的新研究。这涉及注释自然语言解释,以介绍跨眼睛追踪数据集的固定,并提出具有关注语言解码器的通用模型,该模型共同预测扫描路径并生成解释。它集成了一种独特的语义对准机制,以增强固定和解释之间的一致性,以及跨数据库共同训练的通用方法。这些新颖性为可解释的人类视觉扫描预测提供了一种全面且适应性的解决方案。对各种眼睛追踪数据集进行的广泛实验证明了GAZ-在扫描Path的预测和解释中解释的有效性,从而为人类的视觉关注和认知过程提供了宝贵的见解。
抽象知识图(kgs)自然能够捕获数据和知识的收敛性,从而使它们成为高度表达的框架,用于以连贯和互连的方式描述和集成异质数据。然而,基于开放世界假设(OWA),kgs中没有信息并不表示虚假或不存在;它仅反映了不完整。使用数值或符号学习模型,基于KG中现有的事实陈述来预测基于现有的事实陈述的新关系。最近,知识图嵌入(KGE)和符号学习在各种下游任务(包括链接预测(LP))中受到了相当大的关注。LP技术采用实体及其关系的潜在矢量代表来推断缺失的链接。此外,随着KGS产生的数据数量的不断增加,进行额外质量评估和验证工作的必要性变得更加明显。尽管如此,最新的kg完成方法在产生预测的同时未能考虑质量约束,从而导致建立有错误关系的kg。在医疗保健决策的背景下,准确的数据和见解的产生至关重要,包括诊断过程,治疗策略的制定以及实施预防措施。我们提出了一种混合方法,即Vise,该方法采用了符号学习,约束验证和数值学习技术的整合。Vise利用KGE捕获隐式知识并表示kg中的否定,从而增强了数值模型的预测性能。我们的实验结果证明了这种混合策略的有效性,该策略结合了符号,数值和约束验证范式的优势。VISE实施是在GitHub(https://github.com/sdm-tib/vise)上公开访问的。
深度学习模型在从培训数据中学习复杂的模式和概念方面表现出了显着的功能。但是,最近的发现表明,这些模型倾向于在很大程度上依赖于图像背面中存在的简单易懂的特征,而不是它们旨在进行分类的主要概念或对象。这种现象对图像分类器构成了挑战,因为图像中关键的要素可能被掩盖。在本文中,我们提出了一种新的方法来解决这个问题,并通过图像分类器来改善主要概念的学习。我们的中心思想围绕着同时指导模型在分类任务期间对前景的关注。通过强调封装主要感兴趣的主要观察的前景,我们旨在将模型的焦点转移到背景的主要影响下。为实现这一目标,我们引入了一种机制,该机制鼓励该模型分配足够的关注对前景。我们研究了各种策略,包括修改损失函数或合并其他架构组件,以使分类器能够有效地捕获图像中的主要概念。从事方面,我们探讨了不同前景注意机制对模型性能的影响,并提供了对其有效性的见解。通过基准数据集的广泛实验,我们证明了我们提出的方法在提高图像分类器的分类准确性方面的功效。我们的发现突出了前景注意力在增强图像中主要概念的模型理解和表示时的重要性。这项研究的结果有助于推进图像分类领域,并提供有价值的见解,以开发更健壮和准确的深度学习模型。关键字:深度学习;图像分类;前景的关注;概念学习;模型增强。
摘要 正在进行的研究一直在研究如何利用人工智能技术帮助医疗保健消费者理解他们的临床数据,例如诊断放射学报告。如何促进这种新技术的接受是一个热门的研究课题。最近的研究强调了提供有关人工智能预测和模型性能的局部解释的重要性,以帮助用户确定是否信任人工智能的预测。尽管做出了一些努力,但已经进行了有限的实证研究来定量衡量人工智能解释如何影响医疗保健消费者对使用面向患者的人工智能医疗保健系统的看法。本研究的目的是评估不同的人工智能解释对人们对人工智能医疗保健系统的看法的影响。在这项工作中,我们在 Amazon Mechanical Turk(MTurk)上设计并部署了一项大规模实验(N = 3,423),以评估人工智能解释对人们在理解放射学报告方面的感知的影响。我们根据两个因素(预测的解释程度(透明度高 vs. 低)和模型性能(良好 vs. 弱 AI 模型))创建了四个组,并将参与者随机分配到四个条件之一。参与者被指示将放射学报告分类为描述正常或异常发现,然后完成研究后调查以表明他们对 AI 工具的看法。我们发现,揭示模型性能信息可以提高人们对系统输出的信任和感知有用性,而提供预测理由的局部解释可以提高可理解性,但不一定能提高信任度。我们还发现,当模型性能较低时,AI 系统披露的信息越多,人们就越不信任系统。最后,人类是否同意 AI 预测以及 AI 预测是否正确也会影响 AI 解释的效果。我们通过讨论为医疗保健消费者设计 AI 系统来解释诊断报告的意义来结束本文。
在2022财政年度预算的收入提案中,总统提出了对内部税收法规(代码)的许多改革,这些改革将使我们的税收制度现代化以应对当今的挑战。这些变化将提高收入,改善税收管理并使税收制度更加公平和高效。美国就业计划包括改革公司税,支持住房和基础设施并优先清洁能源的收入提案。对公司所得税的改革旨在收取足够的收入,建立更公平的税收制度,并减少税收激励措施,以鼓励利润转移和离岸运输。住房和基础设施税收抵免将支持低收入住房,经济发展以及公立学校和运输基础设施。美国就业计划将消除代码中徘徊的所有化石燃料补贴,同时大大扩大了税收优惠,鼓励清洁能源,能源效率,碳固换和采用电动汽车。美国家庭计划包括加强高所得税纳税人税收的收入提案,扩大低收入和中等收入工人和家庭的税收抵免,并投资改进的纳税人合规性和服务。收入最高者的所得税率将增加,而漏洞(例如携带的利息偏好和同样的房地产偏好)将被消除收入最高的人。改革资本收入的税收甚至将对劳动力和资本收入的税收待遇,并消除使大量资本收入逃脱税收的漏洞。将通过更慷慨的儿童税收抵免,增加的所得税信用额,扩大儿童和依赖的护理税信用以及更慷慨的高级税收抵免来支持家庭和工人的经济安全。最后,对纳税人合规性的变革性投资将为内部税收服务提供建立更公平,更有效的税务管理系统所需的资源和信息。
在 2025 财政年度预算中,总统提出了一系列改革措施,旨在增加收入、扩大工人和家庭的税收抵免,并改善税收管理和合规性。这些改革涵盖税收政策的所有领域,共同打造一个更加公平和高效的税收制度。例如,商业和国际税收改革将提高企业税率和企业替代最低税率,提高股票回购的消费税率,取消 100 万美元以上员工薪酬的企业税收减免,并填补几个商业税收漏洞。其他改革将加强对外国收益的征税,减少鼓励利润转移和离岸外包的税收激励措施,这与实施全球最低税率和现代化个人税收制度的历史性国际协议相一致。该协议将有助于结束企业税率的逐底竞争,为美国企业提供公平的竞争环境,同时保护美国工人。该协议还更新了我们的国际税收规则,以提供稳定性和确定性。世界各国都在制定立法来实施全球最低税率。同样,对高收入纳税人的税收改革将增加额外收入,并有助于确保对劳动和资本收入的更平等对待。收入最高的人的所得税率将提高。资本利得和股息通常将按高收入者的普通税率征税,而对于某些富裕纳税人,允许部分资本利得收入永远逃避所得税的漏洞将被消除。将对极其富有的纳税人征收新的 25% 最低所得税。对于高收入纳税人,允许一些直通企业主逃避医疗保险税的法律漏洞将被消除,医疗保险税率将提高。对于收入最高的人,包括附带权益偏好和同类交换房地产偏好在内的其他漏洞也将被消除。这些改革将大幅削减允许富人为其投资收入支付较低税率的税收优惠,并加剧收入和财富差距,包括性别、地域、种族和民族之间的差距。最后,预算将扩大工人和家庭的税收抵免,减少儿童贫困并扩大机会。儿童税收抵免将扩大至 2025 年,并将永久实现全额退还、每月确定并提前支付。改革抵免的执行将促进人们的接受。劳动所得税抵免也将扩大,以覆盖更多没有孩子的工人。2021 年《美国救援计划法案》首次颁布并在 2022 年《通胀削减法案》中延长的保费税收抵免扩展将永久化,让数百万家庭能够负担得起医疗保险。其他改革将支持住房和城市发展,取消化石燃料税收优惠,弥补遗产税和赠与税漏洞,并改善税收管理和合规性。
相互依存地朝着共同目标前进。我们将此实体称为 HRT。然而,即使在 USAR 环境中引入机器人技术,许多 USAR 任务仍然依赖于沟通能力有限或仅能向人类操作员显示简单机器人状态元素的机器人。尽管机器人状态信息很重要,但这种类型的沟通不需要 HRT 进行深入交流,这使得人类操作员更多地扮演监控者或监督者的角色,而不是队友,团队互动仅限于询问机器人队友或在机器人队友的限制范围内工作。因此,USAR 机器人有限或缺乏沟通能力可能会阻碍 HRT 的有效性,导致机器人被视为依赖关系中的工具,而不是相互依赖关系中的队友。这种客观性虽然在某些决策环境下(例如对工具的信任进行适当校准)很重要,但也可能阻碍人类同行与能力日益增强的机器人建立信任和互动团队认知的基础。信任和互动团队认知是高效团队的重要组成部分(Cooke 等人,2013;Schaefer,2016)。在将机器人融入 HRT 时,由于机器人自动化故障的必然性,人们更倾向于从团队合作的角度而不是工具的角度来考虑(Honig & Oron-Gilad,2021)。意外的机器人故障——即使这些故障可以归因于环境因素而非技术因素——通常会导致人类信任度下降,并可能导致机器人队友被视为不可预测或不可靠。这种性质的机器人故障表明,需要找到解决方案来解决半自主机器人队友的缺点,以更好地发挥他们作为有用队友的潜力。考虑到这一点,本研究的目的是探索机器人的解释和透明度如何影响 HRT 中的人类信任和态势感知,并量化模拟环境中 HRT 沟通的最佳模式。
机器学习方法在医疗领域广泛使用。但是,这些模型的可靠性和功效很难评估,这使得研究人员难以确定哪种机器学习模型适用于其数据集。我们评估了模型指标(例如AUROC,灵敏度,特异性)的方差计算是否通过自举仿真和外形加性解释(SHAP)可以提高模型透明度并改善模型选择。使用了英格兰国家健康服务心脏病预测队列的数据。在比较了XGBoost,随机森林,人工神经网络和自适应增强的模型指标之后,本研究中使用XGBoost作为选择的机器学习模型。BOOST-STRAP模拟(n = 10,000)用于从经验上得出模型指标的分布和协变量增益统计。整体添加说明(SHAP),以提供机器学习输出和仿真的解释,以评估模型精度的差异。对于Xgboost建模方法,我们观察到(通过10,000个完成的模拟),AUROC的范围为0.771至0.947,差异为0.176,平衡精度为0.688到0.688到0.894,敏感性差异为0.632差异为0.632差异0.632到0.3920差异0.932差异0.30777939,均为0.939,均为0.939,均为0.939,均为0.939,均为0.939,均为0.939,均为0.939,范围差0.944,0.394差异。使用仿真来凭经验评估模型指标和解释算法的可变性,以观察协变量是否与文献相匹配,这对于提高了运输,可靠性和机器学习方法的实用性是必需的。在完成的10,000个模拟中,我们观察到,胆固醇的胆固醇的增益范围从0.225到0.225到0.456,差异为0.231,差异为0.148范围为0.148至0.178,最大心率(MAXHR)的差异为0.178,范围为0.081至0.200,范围为0.200,范围为0。 0.098。这些差异统计数据,结合模型精度统计数据可以帮助研究人员确定给定数据集的最佳模型。
反事实解释(CES)已成为解释神经网络分类器的主要方法的越来越多的兴趣。通常,输入输出对的CES定义为具有最小距离的数据点,该数据点与输入分类的输入最小距离,而该输入与输出标签相比。要解决模型参数时很容易无效的确定问题(例如,重新培训)研究提出了方法来证明在模型参数变化下由标准球界定的CES鲁棒性。但是,针对这种鲁棒性形式的现有方法并不完整,它们可能会产生令人难以置信的CES,即离群值WRT WRT训练数据集。实际上,没有现有的方法同时优化邻近性和合理性,同时保留鲁棒性保证。在这项工作中,我们提出了可证明的强大和合理的反事实表达(PREPLACE)1,这是一种利用强大优化技术来促进上述文献中限制的方法。我们制定了一种迭代算法来计算可证明可靠的CES并证明其收敛性,健全性和完整性。通过涉及六个基线的比较实验,其中五个靶向鲁棒性,我们表明,在三个评估方面,预言实现了针对指标的最新表现。关键字:可解释的AI;反事实解释;解释的鲁棒性
临床表现:一名59岁的妇女在右眼有4天的炎症和疼痛病史,在那里她已经失明了几年。慢性失明和最近的症状表明了一个长期存在的眼部问题,现在已经成为症状。成像发现:磁共振成像显示右轨道质量,表明受影响的眼睛有明显的病变。全身参与:腹部和胸部成像显示许多肝肿块,腹部和胸部淋巴结肿大以及椎骨硬化骨性疾病,表明广泛转移性疾病。眼病史:几年患者在眼中盲目的事实表明,长期存在的主要眼病,例如黑色素瘤,可以转移到其他器官。病理确认:将右眼夹紧用于姑息性缓解,并获得组织以进行诊断。摘除剂以控制症状并获得明确的诊断。症状相关性:轨道肿块,广泛的转移性病变和患者眼病史的组合强烈表明转移性眼部黑色素瘤。