本文旨在设计具有更好概括能力的单眼深度估计模式。为此,我们进行了定量分析,并发现了两个重要的见解。首先,在长尾分类问题中发现的模拟相关现象也存在于单眼深度估计中,这表明训练数据中深度分布的不平衡分布可能是导致泛化能力有限的原因。第二,深度值的不平衡和长尾分布范围超出了数据集量表,并且在每个单独的图像中也表现出来,进一步表达了单眼深度估计的挑战。通过上述发现,我们提出了距离感知的多专家(DME)深度估计模型。与先前的方法不同地处理不同深度范围的方法不同,DME采用了分歧和诱使哲学,每个专家都负责对特定深度范围内的区域进行深度估计。因此,每个专家看到的深度分布更加统一,并且可以更容易预测。一个像素级路由模块的进一步设计和学会了,以将所有专家的预测缝合到最终的深度图中。实验表明,DME在NYU-DEPTH V2和KITTI上都达到了最先进的性能,并且还可以在看不见的数据集上提供有利的零拍概括能力。
● 泛化:对未知数据和新类型虚假信息的错误率更高 ● 对新数据的鲁棒性:特定于平台的格式、API、元数据 ● 多模式和跨模式检测(例如脱离上下文) ● 高水平的透明度,包括可解释性和可解释性
本白皮书介绍了在复杂化学空间的背景下革命性材料发现的创新方法和计算框架的全面探索。利用高级技术,例如图形神经网络(GNN),主动学习框架和密度功能理论(DFT)计算,我们建立了一个数据驱动的,闭环系统,以进行材料预测,验证和优化。Our approach integrates high-throughput simulations, multiscale modeling, and multi-physics coupling to address critical challenges in the design of high-performance materials across diverse domains, including energy storage, quantum information systems, and biomedical applications.Through rigorous model evaluations and experimental validations, we demonstrate the predictive accuracy and generalization capability of our frameworks, achieving substantial breakthroughs in exploring previously未知的化学空间。关键成就包括对离子扩散系数的显着改善,超导体的临界温度预测以及催化效率,所有这些都对实验基准进行了验证。通过进一步扩展我们的算法来支持多尺度模拟并将它们与分布式的开放数据平台集成在一起,这项工作为协作,可扩展和智能材料研究的基础奠定了基础。我们的发现不仅可以通过在计算预测和实验验证之间重新定义材料科学的范围,还可以在批判性的质疑之间启动差距,还可以在关键的领域中解除批判性影响力应用程序。这份白皮书强调了我们方法的技术基础,经过验证的方法和重要的科学贡献,建立了21世纪加速材料发现的新基准。
随机梯度下降(SGD)在实践中表现出强大的算法正则化效率,该算法在现代机器学习方法的概括中起着重要作用。在这项工作中,我们试图在线性回归的更简单设置(包括众多和参数化的政权)中理解这些问题,我们的目标是对(未注册)平均SGD与Ridge Regres-Sion的显式正规化提供(未注册的)平均SGD的隐性正规化比较。对于一系列最小二乘问题实例(在高维度中是自然的),我们显示:(1)对于每个问题实例和eviry Ridge参数((未进行定制)SGD),当在对数上提供的样品提供的样本比提供给山脊算法更糟糕的ridge songe(提供的常量)的样本(概括)不变的步骤(概括了SGD的常数)(概括) (2)相反,存在最佳调整的山脊回归需要的样本比SGD更多的样本以具有相同的概括性能。总的来说,我们的结果表明,到对数因素,SGD的概括性能总是不比Ridge回归的多种过度参数化的问题差,实际上,对于某些问题实例来说可能会更好。更普遍地,我们的结果表明,即使在更简单(过度参数化)凸设置中,算法正则化如何产生重要的后果。
近年来,游戏 AI 研究取得了巨大突破,尤其是强化学习 (RL)。尽管取得了成功,但底层游戏通常是使用自己预设的环境和游戏机制实现的,因此研究人员很难为不同的游戏环境设计原型。然而,针对各种游戏环境测试 RL 代理对于最近研究 RL 泛化并避免可能发生的过度拟合问题至关重要。在本文中,我们介绍了 Griddly 作为游戏 AI 研究的新平台,它提供了高度可配置的游戏、不同的观察者类型和高效的 C++ 核心引擎的独特组合。此外,我们还提出了一系列基线实验来研究不同观察配置和 RL 代理泛化能力的影响。
在大型语言模型(LLMS)中(也称为charcter概括)中可自定义的角色扮演,人们对其在开发和部署角色扮演的对话代理方面的多功能性和成本效率引起了人们的关注。本研究探讨了一种大规模数据合成方法,以配备LLM具有特征生成能力。我们首先使用角色中心的角色综合大规模角色概况,然后探索两种策略:响应重写和响应生成,以创建与角色一致的教学响应。为了验证我们的合成教学调谐数据的有效性以进行角色泛化,我们使用Llama-3 8B模型执行监督的微调(SFT)。我们表现最好的模型增强了原始的Llama-3 8b指导模型,并实现了与角色扮演对话的GPT-4O模型相当的性能。我们发布了1个合成字符和指导对话,以支持公共研究。
摘要 - 从演示中学习(LFD)是将类似人类技能授予机器人的有效框架。然而,设计一个能够无缝模仿,推广和反应在动态环境中长期地平线操纵任务的干扰的LFD框架仍然是一个挑战。为了应对这一挑战,我们提出了Logic-LFD,该逻辑LFD将任务和运动计划(TAMP)与动态运动原始词(DMP)的最佳控制配方相结合,从而使我们能够合并运动级别的Via-via-via-via-via-via-vie-vie-aint-vie-viarpoint规范并处理任务级别的变化或动态环境中的干扰。我们对我们提出的方法对几个基线进行了比较分析,从而评估了其在三个长马操纵任务中的概括能力和反应性。我们的实验证明了逻辑LFD的快速概括和反应性,用于处理任务级别的变体和长距离操纵任务中的干扰。项目网页:https://sites.google.com/view/logic-lfd
使模型对某些特定特征敏感,但对边缘不敏感。2。通过转移学习即兴创作:通过使用Resnet50的预训练的权重,对阿尔茨海默氏症的特定数据进行了微调,以增强模型适应性并提高较小或不平衡数据集的性能。
5 请参见 Card 和 Krueger (1995)、Benartzi 等人 (2017)、DellaVigna 和 Pope (2019)、Hummel 和 Maedche (2019)、Bandiera 等人 (2021)、Imai 等人 (2020) 以及 Vivalt (2020) 等。 6 我们的问题对应于同质域泛化,其中结果集 Y 在各个域之间是恒定的,与异构域泛化相反,在异构域泛化中结果集也可能因域而异。还有一篇关于领域适应的相关文献,旨在当目标域中的一些数据可用时改进预测——参见 Zhou 等人 (2021)。 7 我们专注于在特定域上估计并移植到另一个域而无需调整的模型,但如第 P.1 节所述,我们的方法也适用于使用目标域中的一些数据重新估计的模型。
摘要 尽管在可解释人工智能技术中注入领域知识是增强“黑箱”模型决策可解释性的可行方法,但仍存在一些未解决的挑战。其中一些挑战包括可解释性的量化、性能妥协和信息牺牲。在我们之前的工作中,我们证明了在网络入侵检测中注入领域知识可以提供更好的决策可解释性、更好的泛化以更好地处理未知攻击以及更快的决策或响应。在本文中,我们扩展了我们之前的工作,以量化引入泛化的信息牺牲水平,并量化应用于网络入侵检测问题的可解释人工智能技术的可解释水平。我们的实验结果表明,由于注入了领域知识,牺牲的信息水平可以忽略不计,并且使用最近提出的代理方法获得的可解释性分数比不使用领域知识的情况要好。