摘要。我们讨论了在可解释人工智能 (XAI) 研究领域中使黑盒模型更易于解释的观点。我们认为,用于训练深度学习 (DL) 模型的传统端到端学习方法不符合 XAI 的宗旨和目标。回到手工特征工程的想法,我们建议对 XAI 采用混合 DL 方法:我们建议使用 DL 自动检测有意义的、手工设计的高级符号特征,而不是采用端到端学习,然后由标准且更易于解释的学习模型使用这些特征。我们在概念验证中举例说明了这种混合学习模型,该模型基于最近提出的 Kandinsky 模式基准,重点关注管道的符号学习部分,同时使用逻辑张量网络和可解释规则集合。在证明所提出的方法能够提供高度准确且可解释的模型之后,我们将讨论潜在的实施问题和可以探索的未来方向。
如今,人们每天谈论聊天机器人时,都会犯一个错误:聊天机器人并不完美,因为它们并不总是说实话,也就是说,它们会犯事实错误,比如将虚假的陈述归咎于他人,或者引用不存在的书籍——就像我最近在一位学生的作品中发现的那样。但聊天机器人是经过训练可以说话的,尤其是在谈话中娱乐,而不仅仅是说出真相。这意味着聊天机器人比说真话的机器要强大得多,后者已经存在了很长一段时间。为了说话,你需要知道一些事情,更重要的是,你需要理解一些事情。理解某件事意味着你可以详细阐述它。如果一个聊天机器人将爱因斯坦从未说过但本可以说的话归咎于他,这意味着它在某种程度上理解了爱因斯坦的思想。任何平庸的学生都可以学会重复托马斯·阿奎那说过的话,但只有聪明的学生才能像中世纪的人所说的那样,以托马斯的方式思考。我们需要决定:我们想要总是说真话的机器还是智能的机器?因为我们拥有说真话的机器已经有一段时间了,却从未发现它们有什么集体用途,而今天它们却撒谎,我们越来越担心它们会抢走我们所有最好的工作。这就是聊天机器人如此有趣的原因:一旦我们有了一台能够相当好地说话的机器,它就会立即开始撒谎。它开始详细阐述所获得的知识,超越现状,走向可能实现的目标,但事实并非如此。
公共关系集团,企业通信部门Akasaka Biz Tower,5-3-1 Akasaka,Minato-Ku,东京107-6332日本
过去十年见证了机器学习(ML)方法的越来越多,包括物理科学在内[1]。The rise of deep learning (DL) [ 2 ] in early 2010 and the remarkable potential of deep neural networks (DNNs) in learning highly predictive models, mainly powered by convolutional [ 3 ] and recurrent [ 4 ] neural networks, emphasized with the ImageNet challenge [ 5 ] and developments in areas such as reinforcement learning [ 6 ], have boosted the application of artificial intelligence (AI) in nearly all domains and thus reshaped the AI的未来。DL革命之后是成功的变压器体系结构[7],其中“注意”的概念被添加到标准NN的体系结构中,以捕获数据特征之间的长期相关性。变形金刚是大语言模型(LLM)的基础,可以通过在大型数据集上预处理,从而在没有特定领域的知识的情况下学习上下文,从而解开了另一个AI的新时代。尽管AI的发展急剧发展,但大多数基于ML的物理科学应用程序[1]着重于学习非线性数值模型以完成特定任务(例如,数据分析,模拟等)实现新发现。这里出现了物理学家对应用ML的期望以及如何推进物理学的期望。只是一组革命性的数学工具,其性能克服了经典方法,从而取代了它们(例如,DL表现出色的促进决策树,用于针对事件选择任务,该任务针对粒子物理学的标准模型以外的理论[8]),或者是数据驱动的科学发现的能力[8])?
摘要。神经符号人工智能 (NeSy) 的倡导者断言,将深度学习与符号推理相结合将产生比单独使用任何一种范式都更强大的人工智能。尽管深度学习取得了成功,但人们普遍认为,即使是我们最好的深度学习系统也不太擅长抽象推理。而且由于推理与语言密不可分,因此直觉上自然语言处理 (NLP) 将成为 NeSy 的特别合适的候选对象。我们对将 NeSy 用于 NLP 的研究进行了结构化审查,目的是回答 NeSy 是否确实实现了其承诺的问题:推理、分布外泛化、可解释性、从小数据中学习和推理以及可转移到新领域。我们研究了知识表示(例如规则和语义网络、语言结构和关系结构)的影响,以及隐式或显式推理是否有助于提高承诺分数。我们发现,将逻辑编译到神经网络中的系统可以实现大多数 NeSy 目标,而其他因素(例如知识表示或神经结构类型)与实现目标没有明显的相关性。我们发现在推理的定义方式上存在许多差异,特别是与人类水平的推理有关,这会影响有关模型架构的决策并导致结论在各个研究中并不总是一致的。因此,我们主张采用更有条理的方法来应用人类推理理论以及制定适当的基准,我们希望这可以更好地理解该领域的进展。我们将数据和代码放在 github 上以供进一步分析。1
摘要在本文中,为在提高Nesterov加速梯度方法的收敛速率时,提出了基于符号和接触差异的显式稳定积分器。符合性几何形状适用于描述Ham-iLtonian力学,接触几何形状被称为奇异的几何形状。一种称为符合性的程序是一种已知的方法,可以从触点歧管中构建符号歧管,从接触膜构造自动式哈密顿系统。在本文中发现,先前研究的非自主odes可以写为汉密尔顿系统家庭。然后,通过开发和应用表达非自主odes的非自主接触的符合性,并实现了新型的符号积分。由于所提出的符号积分器保留了ODES中隐藏的符号和接触结构,因此预计它们比Runge -Kutta方法更稳定。数值实验表明,正如预期的那样,二阶符号积分器是稳定的,并且达到了高收敛速率。
我的目标是建造可以从任务,方式和环境中不断学习新知识的机器:回答查询,推断人类的意图,并制定长时间的计划跨越小时到几天。虽然互联网规模数据收集和深度学习工具的最新进展在许多实际应用(例如视觉识别,聊天机器人和游戏代理)中取得了重大进展,但将这一成功扩展到通用代理商仍然很难。首先,收集与高度可变对象和环境的长马相互作用的数据非常昂贵;其次,这样的代理必须能够不断获得新的概念,同时能够将分布式分布到新颖的状态,目标和偏好中,这是当前端到端神经网络系统所影响的挑战。
摘要 — 人类通过感知(将来自环境的感官输入转换为符号)和认知(将符号映射到有关环境的知识以支持抽象、类比推理和长期规划)与环境进行交互。在人工智能的背景下,人类感知启发的机器感知是指使用使用自监督学习目标(例如下一个单词预测或对象识别)训练的神经网络从原始数据中进行大规模模式识别。另一方面,机器认知包含更复杂的计算,例如使用环境知识来指导推理、类比和长期规划。人类还可以控制和解释他们的认知功能。这似乎需要保留从感知输出到有关环境的知识的符号映射。例如,人类可以遵循和解释在医疗保健、刑事司法和自动驾驶等安全关键应用中推动其决策的准则和安全约束。虽然数据驱动的基于神经网络的人工智能算法可以有效地对机器感知进行建模,但基于符号知识的人工智能更适合对机器认知进行建模。这是因为符号知识结构支持从感知输出到知识的映射的显式表示,从而实现对人工智能系统决策的可追溯性和审计。通过跟踪人工智能系统的输入、输出和中间步骤,此类审计线索可用于执行安全的应用方面,例如法规遵从性和可解释性。神经符号人工智能部门的这篇第一篇文章介绍并概述了迅速兴起的神经符号人工智能范式,该范式结合了神经网络和知识引导的符号方法,以创建更强大、更灵活的人工智能系统。这些系统具有巨大的潜力,可以提高人工智能系统的算法级(例如抽象、类比、推理)和应用级(例如可解释和安全约束决策)能力。
在意识到早期干预对慢性精神健康 (MH) 患者的重要性后,用于心理健康 (MHCare) 的人工智能 (AI) 系统不断发展。社交媒体 (SocMedia) 成为支持寻求 MHCare 的患者的首选平台。没有社会耻辱感的同伴支持小组的建立使得患者从临床环境过渡到 SocMedia 支持的互动以获得快速帮助。研究人员开始探索 SocMedia 内容,寻找展示不同 MH 状况之间相关性或因果关系的线索,以设计更好的干预策略。基于用户级分类的 AI 系统旨在利用来自各种 MH 状况的不同 SocMedia 数据来预测 MH 状况。随后,研究人员创建了分类方案来衡量每种 MH 状况的严重程度。这种临时方案、工程特征和模型不仅需要大量数据,而且无法对结果进行临床上可接受和可解释的推理。为了改进 MHCare 的神经人工智能,需要注入临床医生在决策中使用的临床符号知识。神经人工智能系统在 MH 中的一种有影响力的用例是对话系统。这些系统需要分类和生成之间的协调,以促进对话代理 (CA) 中的人性化对话。当前具有深度语言模型的 CA 在其生成中缺乏事实正确性、医学相关性和安全性,这与无法解释的统计分类技术交织在一起。这个讲座式教程将展示我们对注入临床知识的神经符号方法的研究,以改善神经人工智能系统的结果,从而改善 MHCare 的干预措施:(a) 我们将讨论使用不同的临床知识创建专门的数据集来有效地训练神经人工智能系统。(b) 心血管疾病患者根据性别差异表现出不同的 MH 症状。我们将展示知识注入的神经人工智能系统可以识别此类患者中特定性别的 MH 症状。 (c) 我们将描述将临床过程知识注入启发式和约束式的策略,以改进语言模型来生成相关问题和答案。
Johannes Damarowsky ( Johannes.damarowsky@wiwi.uni-halle.de ) 在信息系统研究中,对组织内的信息及其流动进行建模已经很成熟。然而,信息的一个视角尚未用标准化的模型符号来表示:组织内的信息对象生命周期。将客户主数据(如姓名、地址、电话号码、电子邮件地址、出生日期)等信息理解为信息对象 (IO) 是一种视角和工具,它与可以表示它的著名静态建模符号非常吻合,例如实体关系模型 (ERM) 或 UML 类图。UML 部署图或 The Open Groups ArchiMate 等符号可以指示客户主数据 IO 的数字表示位于组织 IT 基础架构中的何处,例如哪些数据库在哪些物理服务器上包含它。但是,IO 在其生命周期内的行为没有可用的专用建模符号。重要的 IO 生命周期行为至少包括:1) 初始创建(即创建新客户)、2) 读取(例如,店员读取客户数据)、3) 向其添加新数据字段(例如,第二个地址)、4) 修改现有数据(例如,更新电话号码)、5) 实例化(例如,在纸质表格上打印客户数据或在另一个系统中创建数字副本)、6) 移动、7) 读取或 8) 修改实例(例如,将包含客户数据的纸质表格交给阅读并签名的主管或将客户主数据发送给供应商)、9) 销毁物理或数字实例或初始创建的对象。在最先进的技术中,可以使用行为图(如 UML 活动、用例或序列图)和业务流程符号(如事件驱动流程链 (EPC) 或业务流程模型和符号 (BPMN))来建模 IO 操作,但 IO 生命周期本身并不是一个流程。因此,与 IO 生命周期相关的任务可以包含在多个流程模型中,并且可能仅间接或隐含地引用 IO,从而妨碍快速轻松地概览组织内 IO 的交互。这意味着机会成本,因为 IO 行为与组织信息、业务流程、合规性和信息安全管理相关。一种新颖的信息对象生命周期模型和符号 (IOLMN) 可以简化识别哪些部门记录或更新客户数据的过程,从而更容易识别错误信息的原因。还可以更容易地发现数据是否在多个部门独立记录和存储,这增加了数据存储不一致的风险。从合规性和信息安全的角度来看,可以更容易地识别哪些人对数据具有读取或写入权限,以及数据的实例在哪里创建以及它们可能最终在哪里。在发生安全漏洞的情况下,这样可以更轻松地识别哪些组织单位、流程和 IT 系统使用(读取、写入、修改等)IO 并可能受到影响。为了使 IOLMN 有用并轻松地实现对组织内 IO 的有用视角,它应至少包括 IO 属性、其(及其实例)生命周期行为、这些操作的时间和逻辑顺序和条件,以及涉及的人员、角色、部门、流程或 IT 系统及其对 IO 执行生命周期操作的授权。