架构有可能彻底改变许多人类活动,包括物流、医学和法律 2-4 ;然而,这些系统的负责任和安全地部署取决于它们是否能被人类利益相关者理解。5 针对这一问题提出了两种解决方案:一是设计本质上可解释或透明的系统,这通常会在性能上有所妥协;二是开发定制解决方案来解释一个模糊系统的事后决策。6 在本文中,我们提出了第三种方法,其中可解释性被分析为促进人类理解人工智能 (AI) 系统的问题。因此,我们提出了一种解释人工智能系统的通用方法,通过明确分析提供信息使人类能够理解和预测人工智能的问题。本文的目的是介绍一个统一的框架,从认知科学的角度以可分解组件的角度思考可解释人工智能。我们展示了这个框架如何通过阐明和模块化现有可解释人工智能系统的不同组件为先前的研究提供新的见解。一旦确定,就可以验证这些组件,并讨论这种验证对 XAI 解决方案的普遍性的影响,为 XAI 研究增加了一个新的维度。近年来,有关可解释 AI 的文献激增,7 但仍然缺乏 XAI 技术的连贯理论框架,8 并且现有的分类法是基于解释技术背后的技术基础,而不是其务实目标。这种理论的缺乏阻碍了 XAI 研究,因为它掩盖了哪些经验可以在研究和应用之间安全地转移,以及哪些组件需要在新的环境中重新验证。结果,它既降低了知识积累的速度,也降低了跨部门安全、可解释的 AI 系统的部署速度。此外,大多数 XAI 解决方案往往是由软件工程师为工程师设计的,因此没有考虑如何向非技术用户解释目标系统。 9-12 这是有问题的,因为成功的解释显然取决于用户及其目标,13 如果成功部署了 AI 系统,软件工程师也只是用户的一小部分。可解释的 AI 是一个复杂的问题,既有技术成分,也有心理成分。以结构化和规范的方式阐述 XAI 问题的理论框架可能会揭示以前看似不相关的不同方法和结果之间的关联。这样的框架还将 XAI 问题分解为代表基本组件和依赖关系的抽象,可以单独验证。此外,这种模块化方法将支持部署,因为它允许对解释的哪些子组件可以推广到哪些上下文进行正式测试。我们提出贝叶斯教学作为这样一个框架,它将解释形式化为教师和学习者之间的一种社会行为。在下一节中,我们将解释贝叶斯教学如何将广泛的XAI系统抽象为以下四个组成部分(见表1):(a)目标推理,(b)解释,(c)被解释者模型,(d)解释者模型。具体来说,我们展示了如何应用贝叶斯教学来分解流行的XAI方法类。然后,我们说明如何通过用户研究半独立地验证分解后的部分,并反思贝叶斯教学如何在XAI研究和应用中促进以人为本。最后,我们讨论分解部分的泛化,包括对组件的操作和重组的评论。
路径特征是有效捕获路径的分析和几何特性的路径的强大表示,具有有用的代数特性,包括通过张量产品快速串联路径的特性。签名最近在用于时间序列分析的机器学习问题中广泛采用。在这项工作中,我们建立了通常用于最佳控制和吸引路径签名属性的价值函数之间的连接。这些连接激发了我们的新颖控制框架,具有签名转换,从而有效地将Bellman方程推广到轨迹空间。我们分析框架的属性和优势,称为签名控制。特别是我们证明(i)它自然可以处理不同/适应性的时间步骤; (ii)它比价值功能更新更有效地传播更高级别的信息; (iii)对于长期推出而言,动态系统错误指定是可靠的。作为我们框架的特定情况,我们设计了一种模型预测控制方法。此方法概括了整体控制,适合未知干扰的问题。在模拟中测试了所提出的算法,其中包括可区分的物理模型,包括典型的控制和机器人技术任务,例如点质量,ant模型的曲线跟随以及机器人操纵器。关键字:决策,路径签名,钟声方程,积分控制,模型预测控制,机器人技术
大型视觉模型的发展,无明显的剪辑,已经催化了对有效适应技术的研究,特别着眼于软及时调整。联合使用,使用单个图像的多个增强视图来增强零击的概括,它正在成为互动的重要领域。这主要指导研究工作,以进行测试时间及时调整。相比之下,我们为t estime a u Megentation(MTA)引入了强大的m eanshift,该方法超过了基于及时的方法而无需进行此类训练程序。这将MTA定位为独立和基于API的应用程序的理想解决方案。此外,我们的方法不依赖于某些先前测试时间augting技术中使用的临时规则(例如,置信度阈值)来过滤增强视图。相反,MTA将每种视图的质量评估变量直接纳入其优化过程,称为inllielness评分。该分数通过寻求过程进行了共同优化,从而导致有效的训练和无参数方法。我们在15个数据集上广泛地标记了我们的方法,并演示了MTA的优势和计算效率。在零摄像机模型和最先进的几种方法的顶部轻松部署为插件模块,MTA显示了系统的和一致的改进。
RWY14:东部区域:禁区。西部区域:以 8.1% RM157° 爬升至 260(74)(1),然后爬升至 1500(1314),随后直接飞抵航路安全高度。请勿在 DER 前转弯。 (1)理论上升坡度:惩罚性障碍; 246 英尺树线距离 DER 184 米,轴线左侧 127 米。如果忽略此障碍:以 7.2% RM157° 爬升至 230(44)(2),然后爬升至 1500(1314),然后直接航线至航路安全高度。请勿在 DER 前转弯。 (2)理论上升坡度:惩罚性障碍; 224 英尺机库距离 DER 90 米,轴线右侧 201 米。 RWY32:东部区域:禁区。西部区段:以 10.6% 的速度爬升至 RM322° 至 270(76)(1),然后以 4.6% 的速度爬升至 1000(806),随后直接飞抵航路安全高度。请勿在 DER 前转弯。 (1)理论上升坡度:惩罚性障碍; 258 英尺树线距离 DER 142 米,轴线右侧 187 米。如果忽略此障碍:以 4.6% RM322° 的速度爬升至 1000(806)(2),然后直接飞抵航路中的安全高度。请勿在 DER 前转弯。 (2)理论上升坡度:惩罚性障碍; 262 英尺树线距离 DER 412 米,位于轴线左侧 197 米处。
现有的监督学习的概括理论通常采用整体方法,并为整个数据分布的预期概括提供了界限,该方法隐含地假设该模型对所有不同类别的概括都相似。但是,在实践中,不同类别之间的概括性能存在显着差异,而现有的泛化范围无法捕获。在这项工作中,我们通过从理论上研究班级化误差来解决这个问题,从而量化了每个单独类别的模型的概括性能。我们使用KL Divergence得出了一种新的信息理论,用于类临时误差,并使用有条件相互构成的有条件相互结合的最新进展进一步获得了几个更紧密的界限,从而实现了实际评估。我们从经验上验证了各种神经网络中提出的界限,并表明它们准确地捕获了复杂的类概括行为。此外,我们证明了这项工作中开发的理论工具可以应用于其他几种应用程序。
面对新的预测或分类任务时,最明显的是哪种机器学习算法最适合。一种常见的方法是评估一组机器学习者在数据的保留分区或通过交叉验证的性能,然后选择最小化所选损失指标的机器学习者。但是,这种方法是不完整的,因为将多个学习者组合为一个最终预测可能会导致与每个学习者相比,可能会导致卓越的表现。这种可能性激发了堆积的概括,或者只是“堆叠”(参见Wolpert [1992]和Breiman [1996])。堆叠是模型平均形式。Van der Laan,Polley和Hubbard(2007)的理论结果支持堆叠的使用,因为它至少是渐近的,并且只要基础学习者的数量不大。
摘要。对肿瘤分割模型的一个关键挑战是适应各种临床环境的能力,尤其是在应用于质量差的神经数据时。围绕这种适应性的不确定性源于缺乏代表性数据集,使最佳模型在整个撒哈拉以南非洲(SSA)中发现的MRI数据中发现的不符合外表的模型没有展示的模型。我们复制了一个框架,该框架确保了2022个小子中的第二位置,以调查数据集组成对Mod-el绩效的影响,并通过使用以下方式培训模型来追求四种不同的方法:仅Brats-Africa Data(Train_ssa,N = 60),N = 60),2)Brats-Adult Glioma DATATS(2)BRATS-ADULT GLIOMA DATATS(TRAIT_ DATAT)(Train_gli,N = 1251) n = 1311)和4)通过进一步培训使用BRATS-AFRICA数据(Train_FTSSA)的Train_GLI模型。值得注意的是,仅在较小的低质量数据集(Train_SSA)上进行培训就产生了低于标准的结果,并且仅在较大的高质量数据集(Train_Gli)上训练,在低质量验证集中努力努力划定Odematous Tissue。最有希望的AP-PRACH(TRAIN_FTSSA)涉及预先培训高质量神经图像的模型,然后在较小的低质量数据集中进行微调。这种方法超过了其他方法,在Miccai Brats非洲全球挑战外部测试阶段排名第二。这些发现强调了较大的样品大小的重要性,并在改善分割性能中广泛接触了数据。此外,我们证明了通过在本地使用更广泛的数据范围对这些模型进行微调来改善此类模型的潜力。
飓风 飓风是一种非常强大的风暴。它是一种气旋风暴,这意味着飓风内部呈圆形。飓风这个名字指的是始于大西洋或东太平洋的风暴。飓风在世界其他海洋中有不同的名称。例如,它们在西北太平洋被称为台风。在世界其他大部分地区,它们被称为气旋。它们的风速大多超过每小时 75 英里。风以圆形模式移动。风暴移动的中心点称为风暴眼。这些风暴通常发生在温暖的热带海洋中。它们从蒸发的海水中获取能量。飓风在陆地上移动时会减弱,因为它们依靠温暖的海洋在风暴移动时继续提供能量。陆地的表面也比海洋粗糙得多。陆地的海拔和表面变化要大得多。当风遇到陆地表面并产生摩擦时,飓风会失去动力。飓风是一种强大的风暴,通常始于大西洋或太平洋。这些风暴依靠海洋获得力量和能量,登陆后速度会减慢。
内在学习(ICL)是一种提示,其中变压器模型以(输入,输出)示例的序列运行,并在当时进行分解。在这项工作中,我们将上下文学习形式化为一种算法学习问题,其中变压器模型在推理时间内隐含构建了假设函数。我们首先通过多任务学习的镜头探索了该抽象的统计方面:当输入提示为(1)I.I.D的顺序时,我们会对ICL进行概括。(输入,标签)对或(2)由动态系统产生的轨迹。我们的分析的症结是将多余的风险与变压器所影响的算法的稳定性有关。我们表征了当变压器/注意体系结构可证明遵守稳定性条件并提供示例验证时。对于对看不见的任务的概括,我们确定了一种归纳偏见现象,其中转移学习风险受任务复杂性和MTL任务的数量的控制。最后,我们提出了数值评估,即(1)证明了变形金刚确实可以在I.I.D的经典回归问题上实施近乎最佳的算法。和动态数据,(2)提供有关稳定性的见解,(3)验证我们的理论预测。
我们通过概括的镜头研究目标条件的RL,但不是从传统的随机增强和域随机化的意义上。相反,我们旨在学习针对地平线的概括的目标指导的政策:在训练以实现附近的目标(这很容易学习)之后,这些政策应该成功实现遥远的目标(这是非常具有挑战性的学习)。In the same way that invariance is closely linked with generalization is other areas of machine learning (e.g., normalization layers make a network invariant to scale, and therefore generalize to inputs of varying scales), we show that this notion of horizon generalization is closely linked with invariance to planning: a policy navigating towards a goal will select the same actions as if it were navigating to a waypoint en route to that goal.因此,经过培训的实现附近目标的政策应成功实现任意途中的目标。我们的理论分析证明,在某些假设下,视野概括和计划不变性都是可能的。我们提出了新的实验结果,并从先前的工作中回忆起,以支持我们的理论结果。综上所述,我们的结果为研究在机器学习的其他领域开发的不变性和概括技术的方式可能会适应以实现这种诱人的属性。