摘要。我们研究了形状约束(SC)的添加及其在符号识别步骤(SR)的参数识别步骤中的考虑。sc是一种将有关未知模型函数形状的先验知识引入SR的手段。与以前在SR中探索过SC的工作不同,我们建议在使用基于梯度的NU-MERIMILICE优化的参数识别期间最大程度地减少SC违规行为。我们测试了三种算法变体,以评估其在识别合成生成数据集的三个符号表达式时的性能。本文研究了两种基准方案:一个具有不同噪声水平的基准,另一个具有不同的培训数据。结果表明,当数据稀缺时,将SC纳入表达搜索特别有益。与仅在选择过程中使用SC相比,我们在参数识别期间最小化违规行为的方法在我们的某些测试用例中显示出具有统计学意义的好处,在任何情况下都没有明显更糟。
抽象知识图(kgs)自然能够捕获数据和知识的收敛性,从而使它们成为高度表达的框架,用于以连贯和互连的方式描述和集成异质数据。然而,基于开放世界假设(OWA),kgs中没有信息并不表示虚假或不存在;它仅反映了不完整。使用数值或符号学习模型,基于KG中现有的事实陈述来预测基于现有的事实陈述的新关系。最近,知识图嵌入(KGE)和符号学习在各种下游任务(包括链接预测(LP))中受到了相当大的关注。LP技术采用实体及其关系的潜在矢量代表来推断缺失的链接。此外,随着KGS产生的数据数量的不断增加,进行额外质量评估和验证工作的必要性变得更加明显。尽管如此,最新的kg完成方法在产生预测的同时未能考虑质量约束,从而导致建立有错误关系的kg。在医疗保健决策的背景下,准确的数据和见解的产生至关重要,包括诊断过程,治疗策略的制定以及实施预防措施。我们提出了一种混合方法,即Vise,该方法采用了符号学习,约束验证和数值学习技术的整合。Vise利用KGE捕获隐式知识并表示kg中的否定,从而增强了数值模型的预测性能。我们的实验结果证明了这种混合策略的有效性,该策略结合了符号,数值和约束验证范式的优势。VISE实施是在GitHub(https://github.com/sdm-tib/vise)上公开访问的。
能够产生新型输出的抽象开发系统是当前人工智能(AI)研究的主导趋势之一。近年来,这种生成系统的功能和可用性,尤其是所谓的大型语言模型(LLM)。尽管神经符号生成模型比纯粹的统计生成模型具有优势,但目前很难比较培训,微调和使用这种方法不断增长的方法的不同方式。在这项工作中,我们为此目的使用了van Bekkum等人的模块化设计模式和拳头语言,并扩展了这些模型,以实现生成模型,特别是LLM的表示。这些模式提供了一种通用语言来描述,比较和理解所使用的不同架构和方法。我们的主要目的是支持对生成模型的更好理解,并支持基于LLM的系统的工程。为了证明这种方法的有用性,我们探索了生成的神经符号结构和方法,作为这些生成设计模式的用例。
摘要。在差异差异中开发的Kosambi – Cartan-Chern(KCC)的经典理论提供了一种有力的方法来分析动力学系统的行为。在KCC理论中,动态系统的属性是用五个几何不变剂来描述的,其中第二个对应于系统的所谓雅各比稳定性。与在文献中广泛研究的Lyapunov稳定性不同,最近使用几何概念和工具研究了雅各比稳定性的分析。事实证明,关于雅各比稳定性分析的现有工作仍然是理论上的,算法和象征性治疗雅各比稳定性分析的问题尚未解决。在本文中,我们对一类任意维度的ODE系统的问题启动了研究,并使用符号计算提出了两种算法方案,以检查非线性动力学系统是否可以表现出Jacobi稳定性。第一个方案基于特征多项式的复杂根结构的构建和消除量词的方法,能够检测给定动力学系统的雅各比稳定性的存在。第二个算法方案利用了半代数系统求解的方法,并允许一个人确定给定动力学系统的参数条件,以便具有规定数量的Jacobi稳定固定点。提出了几个示例,以证明所提出的算法方案的有效性。
摘要 - 主要由深神经网络驱动的人工intel-ligence(AI)的显着进步面临着围绕不可持续的计算传统,有限的鲁棒性和缺乏解释性的挑战。为了开发下一代认知AI系统,神经符号AI成为一种有希望的范式,融合了神经和象征性方法,以增强可解释性,鲁棒性和信任性,同时促进从较少数据的数据中促进学习。最近的神经符号系统在与推理和认知能力的协作人类方案中表现出了巨大的潜力。在本文中,我们旨在了解神经符号AI的工作量特征和潜在的架构。我们首先系统地对神经符号AI算法进行分类,然后通过实验评估和分析它们的运行时,记忆,计算运算符,稀疏性,稀疏性以及CPU,GPU和EDGE SOC的系统特征。我们的研究表明,由于矢量符号和逻辑操作的记忆性质,复杂的流量控制,数据依赖性,稀疏性变化以及有限的可伸缩性,神经符号模型的效率低下效率低下。基于分析见解,我们建议跨层优化解决方案,以提高神经符号计算的性能,效率和可扩展性。最后,我们从系统和建筑学的角度讨论了神经符号AI的挑战和未来方向。
1. 逻辑推理。我们区分了两种逻辑推理方法:基于模型的和基于证明的。根据基于模型的观点,逻辑规则被解释为对布尔变量的一组约束。这种观点产生了 NeSy 方法,其中逻辑转化为神经网络的正则化损失。从证明论的角度来看,逻辑规则被视为推理规则,人们执行一系列推理步骤来获得查询的证明。这种观点导致了 NeSy 方法的产生,其中逻辑是神经网络架构的模板。2. 逻辑语法,我们根据命题、关系或一阶逻辑对系统进行分类。关系和一阶 NeSy 系统在其逻辑语句中引入逻辑变量,从而允许对其学习模块进行结构化(即模板化)定义。 3. 逻辑语义 ,为了实现基于梯度的学习,大多数 NeSy 系统引入了离散布尔逻辑语义的放宽。最常见的选择是模糊逻辑和概率逻辑。 4. 学习。NeSy 系统通常关注学习加权逻辑理论或神经网络权重的参数。一些系统还学习模型的结构,即逻辑规则的形状或神经模块的架构。 5. 符号与子符号。我们可以对比逻辑理论元素的两大类表示
计划是行动之前的审议思维行为(Haslum 2006)。它基于世界的符号模型及其在其中作用的选项,通常在功能 - 无函数的一阶逻辑中定义。规划师必须找到一系列行动(计划),该动作从当前状态带到了期望的目标状态。纯粹的物理描述可以通过部分有序的语法式结构(分层任务网络或HTN)进行增强,描述专家知识,或实用,法律或操作要求。在本次演讲中,我将使用符号方法来调查各种自动得出计划的方法。这些符号方法 - 从某种意义上说 - 将计划问题转化为其他,更简单的符号代表,并推理了这些方法,以找到计划。作为这些方法的基础,我首先将在计划中介绍相关的理论结果。首先,我将讨论规划形式主义的表现力(Houler等人2014; Houler等。2016)和第二,HTN计划的计算复杂及其相关任务,例如HTN计划验证,计划修改和计划识别(Behnke,Houler和Biundo 2015; Behnke等; Behnke等人2016)。基于这些理论结果,我将开发为什么基于SAT的HTN计划以及如何进行基于SAT的HTN计划。为此,我将在顶级会议上调查我的几个公开(Behnke,Houler和Biundo 2017,2018,2019a,b; Behnke等人。接下来,我提出了表达以SAT(Houler and Behnke 2022)的升级经典计划的想法。2020; Behnke 2021) - 在其中,我开发了一个基于SAT的HTN问题计划者,包括找到最佳计划以及接地的能力,以作为预处理步骤。由此产生的计划是第一个基于SAT的计划者 - 事实证明,在出版时表现出了高效且优于所有其他提起的计划者。值得注意的是,Lisat是第一位计划者(被解除或扎根),仍然是唯一一个解决具有挑战性的有机合成基准的计划者,甚至可以证明所有计划的最佳性。最后,我介绍了具有象征性表示的计划概念(Behnke和Speck 2021; Behnke等人。2023) - 使用二进制决策图(BDD)紧凑地编码大量状态。使用BDD注释的finenite自动机的组合,我们可以结构
神经符号(NESY)AI致力于通过快速,可靠的预测来增强机器学习和大型语言模型,通过无缝整合神经和符号方法,表现出常识性和值得信赖的推理。在如此广泛的范围内,已经提出了几种分类法,以对这种集成进行分类,强调知识代表,推理算法和应用程序。我们对神经符号界面捕获方法捕获概率,逻辑和算术约束推理的神经符号界面捕获方法进行研究。此外,我们为杰出的学习损失类别的梯度和推理和学习的形式化而得出表达。通过严格的经验分析,跨越了三个任务,我们表明NESY方法在半监督的环境中对神经基础的影响达到了37%的证明,并且在提问方面的GPT-4提高了19%。
2特征方程式| λi -d f(x,µ)| = 0,其中d f(x,µ)是(x,µ)系统的雅各布矩阵,具有一对假想的根(λ(x,µ),λ(x,x,µ)),没有其他根部的根。99k(x,µ)Hopf Equilibria