现有的监督学习的概括理论通常采用整体方法,并为整个数据分布的预期概括提供了界限,该方法隐含地假设该模型对所有不同类别的概括都相似。但是,在实践中,不同类别之间的概括性能存在显着差异,而现有的泛化范围无法捕获。在这项工作中,我们通过从理论上研究班级化误差来解决这个问题,从而量化了每个单独类别的模型的概括性能。我们使用KL Divergence得出了一种新的信息理论,用于类临时误差,并使用有条件相互构成的有条件相互结合的最新进展进一步获得了几个更紧密的界限,从而实现了实际评估。我们从经验上验证了各种神经网络中提出的界限,并表明它们准确地捕获了复杂的类概括行为。此外,我们证明了这项工作中开发的理论工具可以应用于其他几种应用程序。
该立场论文通过提高培训数据超出培训数据的能力来探讨人工智能的进步,这是对抽象和推理语料库(ARC)任务的关键要求。受到历史算法挑战(例如邦加德问题)的启发,ARC任务需要模式进行综合和逻辑推理,从而将AI推向了更具灵活性,类似人类的智能。我们调查了Dreamcoder,一种神经符号系统,以及大型语言模式在ARC中的作用。我们强调了对人类试验和合成数据增强的启发的需求,并提出了使用数学启发的神经体系结构进行逻辑推理的管道。这项工作强调了ARC如何指导AI研究,弥合了机器学习与数学发现之间的差距。
面对新的预测或分类任务时,最明显的是哪种机器学习算法最适合。一种常见的方法是评估一组机器学习者在数据的保留分区或通过交叉验证的性能,然后选择最小化所选损失指标的机器学习者。但是,这种方法是不完整的,因为将多个学习者组合为一个最终预测可能会导致与每个学习者相比,可能会导致卓越的表现。这种可能性激发了堆积的概括,或者只是“堆叠”(参见Wolpert [1992]和Breiman [1996])。堆叠是模型平均形式。Van der Laan,Polley和Hubbard(2007)的理论结果支持堆叠的使用,因为它至少是渐近的,并且只要基础学习者的数量不大。
本研究调查了数据集特性对深度学习模型的性能和概括性的影响,对ECG数据。该研究评估了TNMG数据集的多个子集,其策划特征水平不同,以评估其对模型性能的影响。此外,引入了吸引机制来增强模型的确保和泛化。实验结果表明,接受平衡子集训练的模型,并不断提出注意力机制,始终优于那些接受不平衡数据或没有注意力的人,强调了数据集平衡和注意力的关注机制在实现改进模型性能方面的重要重要性。令人惊讶的是,最大的ECG数据集TNMG与较小的策划子集相比,在概括方面的效果较差。这项研究表明,即使尺寸明显较小,一个均衡平衡且经过精心策划的数据集也可能导致竞争模型的绩效。这项关于ECG数据的研究强调了生物医学机器学习中数据集策划,平衡和注意力机制的重要重要性。高灯光,具有注意机制的均衡,经过精心策划的数据集可以优于更大,不平衡的数据集,挑战性的常规概念,并在医学数据分析和患者护理中提供潜在的进步。关键字:生物医学深度学习,心电图数据,模型性能,概括,数据集字符 - 属性,注意机制。
机器学习中的中心假设是观察结果是独立的,并且是分布的(i.i.d.)关于固定但未知的概率分布。在此假设下,已经提出了对高级算法设计中模型的可学习性或导致的阐述(Boser等,1992)。但是,在许多实际应用中,收集的数据可以取决于I.I.D。假设不存在。社区中有关数据的依赖性以及如何依赖的方式进行了广泛的讨论(Dehling和Philipp,2002; Amini and Usunier,2015年)。使用相互依存的数据学习。近年来建立依赖设定的概括理论已引起人们的兴趣(Mohri和Rostamizadeh,2008,2009; Ralaivola et al,2010; Kuznetsov and Mohri,2017)。在这个方向上的一项主要研究线模拟了各种类型的混合模型的数据依赖性,例如α-混合(Rosen- Blatt,1956年),β-混合(Volkonskii和Rozanov,1959年),φ -Mixing(ibragimov,1962)和η-混合(Kontorovich(Kontorovich),以及2007年,以及2007年,以及2007年,以及2007年)。混合模型已在统计学习理论中使用,以建立基于Rademacher复杂性(Mohri和Rostamizadeh,2009,2010; Kuznetsov and Mohri,2017)或算法稳定性(Mohri和Ros-Tamizadeh和Ros-Tamizadeh,2008,2008,2008; He Hean,2008; He Hean Indepental commution and kont and kont and kont and kont and kont and kont and kont and kont and kont and kont,技术(Yu,1994)。在这些模型中,混合系数在数据之间测量了数据之间的依赖性。另一项工作线(称为脱钩),通过分解一组依赖性随机变量来研究复杂系统的行为
在各种声学环境中,在各种声音环境中实现强大的语音分离,并带来了一个开放的挑战。尽管现有的数据集可用于训练分离器以获取特定方案,但它们并未在各种现实世界中概括地概括。在本文中,我们提出了一条新型的数据模拟管道,该管道从一系列声学环境和内容中产生各种培训数据,并提出了新的培训范式,以提高一般语音分离模型的质量。具体来说,我们首先引入AC-SIM,AC-SIM是一种数据模拟管道,该管道结合了内容和声学的广泛变化。然后,我们将多个培训目标纳入置换不变训练(PIT),以增强训练有素的模型的分离质量和概括。最后,我们在分离界和基准之间进行了全面的观察和人类听力实验,以验证我们的方法,从而对非同源和现实世界测试集进行了实质性改进。索引术语:语音分离,数据模拟,多损失优化
架构有可能彻底改变许多人类活动,包括物流、医学和法律 2-4 ;然而,这些系统的负责任和安全地部署取决于它们是否能被人类利益相关者理解。5 针对这一问题提出了两种解决方案:一是设计本质上可解释或透明的系统,这通常会在性能上有所妥协;二是开发定制解决方案来解释一个模糊系统的事后决策。6 在本文中,我们提出了第三种方法,其中可解释性被分析为促进人类理解人工智能 (AI) 系统的问题。因此,我们提出了一种解释人工智能系统的通用方法,通过明确分析提供信息使人类能够理解和预测人工智能的问题。本文的目的是介绍一个统一的框架,从认知科学的角度以可分解组件的角度思考可解释人工智能。我们展示了这个框架如何通过阐明和模块化现有可解释人工智能系统的不同组件为先前的研究提供新的见解。一旦确定,就可以验证这些组件,并讨论这种验证对 XAI 解决方案的普遍性的影响,为 XAI 研究增加了一个新的维度。近年来,有关可解释 AI 的文献激增,7 但仍然缺乏 XAI 技术的连贯理论框架,8 并且现有的分类法是基于解释技术背后的技术基础,而不是其务实目标。这种理论的缺乏阻碍了 XAI 研究,因为它掩盖了哪些经验可以在研究和应用之间安全地转移,以及哪些组件需要在新的环境中重新验证。结果,它既降低了知识积累的速度,也降低了跨部门安全、可解释的 AI 系统的部署速度。此外,大多数 XAI 解决方案往往是由软件工程师为工程师设计的,因此没有考虑如何向非技术用户解释目标系统。 9-12 这是有问题的,因为成功的解释显然取决于用户及其目标,13 如果成功部署了 AI 系统,软件工程师也只是用户的一小部分。可解释的 AI 是一个复杂的问题,既有技术成分,也有心理成分。以结构化和规范的方式阐述 XAI 问题的理论框架可能会揭示以前看似不相关的不同方法和结果之间的关联。这样的框架还将 XAI 问题分解为代表基本组件和依赖关系的抽象,可以单独验证。此外,这种模块化方法将支持部署,因为它允许对解释的哪些子组件可以推广到哪些上下文进行正式测试。我们提出贝叶斯教学作为这样一个框架,它将解释形式化为教师和学习者之间的一种社会行为。在下一节中,我们将解释贝叶斯教学如何将广泛的XAI系统抽象为以下四个组成部分(见表1):(a)目标推理,(b)解释,(c)被解释者模型,(d)解释者模型。具体来说,我们展示了如何应用贝叶斯教学来分解流行的XAI方法类。然后,我们说明如何通过用户研究半独立地验证分解后的部分,并反思贝叶斯教学如何在XAI研究和应用中促进以人为本。最后,我们讨论分解部分的泛化,包括对组件的操作和重组的评论。
摘要 - 运动成像脑图是非线性,非平稳性和高维本质上的。由于其中,跨多个主题的现有分类模型的预测是有限的。为了提高跨多个主题的现有分类模型的性能,本文提出了一种新的预处理方法。引入了一种混合特征选择方法,以选择最佳的通道数,然后选择聚类。聚类有助于通过检测不同受试者之间的类似簇来探索共享的大脑活动模式及其与外部因素的关系。在这项研究中,使用四个不同的分类器来对运动成像脑电图数据进行分类。使用集成技术的拟议方法的精度为99.6%。在逻辑回归中可以看到显着改善。这项研究的结果表明,使用我们提出的方法可以跨多个受试者进行运动成像脑电图的概括。
对组合优化问题(例如旅行推销员问题)的神经网络求解器的端到端培训是棘手的,效率低下,超过了几百个节点。,当最新的机器学习方法经过琐碎的尺寸训练时,与经典求解器紧密相关,但他们无法将学习的政策推广到更大的实用范围。旨在利用转移学习来解决大规模TSP,本文确定了归纳偏见,模型架构和学习算法,这些算法促进对比培训中所见的实例更大的实例。我们的受控实验提供了对这种零弹性概括的首次原则研究,表明除训练数据超出训练数据需要重新思考神经组合优化管道,从网络层和学习范式到评估方案。
摘要。预先训练的视觉模型(VLMS)的出色概括能力使下游零镜头任务的微调VLM是流行的选择。尽管在基础类的专业性中取得了令人鼓舞的表现,但大多数现有的微调方法都遭受了新颖类的特征混乱,导致不满意的可转移性。为了解决这个问题,我们提出了一种称为基于及时的变分适配器(PVA)的分裂和争议方法,该方法通过分开基础和新样本来明确减少预测偏差。指定,我们设计了两个具有可学习的文本令牌的变异适配器,以使共享潜在空间中每种模态的潜在表示。一旦受过训练,我们就可以使用潜在特征的相似性度量,即将混乱任务转换为两个独立的样本(一个用于基本类别,另一个用于新颖的类别)。此外,为了提高新颖类的可传递性,我们通过残留连接进一步完善了具有全局特征的学习适配器的输出特征。我们对广义零射门学习和交叉传输的学习进行了广泛的实验,以证明我们的方法的优势,并在四个流行的基准上建立新的最先进的方法。