视觉问题回答(VQA)是一项具有挑战性的任务,需要通过关系推理对图像和问题进行跨模式理解,从而导致正确答案。为了弥合这两种方式之间的语义差距,以前的作品着重于所有可能对的单词区域对齐,而无需更多地关注相应的单词和对象。同样处理所有对,而无需考虑关系一致性,这是模型的性能。在本文中,为了对齐关系对并整合VQA系统的解释性,我们提出了一个跨模式的关系构建网络(CRRN),以掩盖不一致的注意力图,并突出相应单词对的全部潜在比对。具体来说,我们提出了两个相关性掩码,用于模式间和模式内突出显示,从而推断出图像中句子或区域中越重要的单词。可以通过掩盖未对齐的关系来增强一致对的关注相互关系。然后,我们提出了两个新颖的损失L CMAM和L SMAM,并具有明确的超级视觉,以捕获视觉和语言之间的细粒度相互作用。我们进行了彻底的实验来证明有效性并实现了GQA基准的竞争性绩效,以达到61.74%。
个人区域网络(PANS)和大都市区域网络(MANS)在连通性中也起着至关重要的作用。PANS通常在几米的范围内连接个人设备。它们促进了个人小工具之间的通信和数据交换,例如智能手机,平板电脑,笔记本电脑,可穿戴设备和物联网外围设备。蓝牙和Wi-Fi Direct是平底锅中使用的常见技术,可在设备之间建立临时连接,而无需集中基础架构。人类覆盖了比LAN的更大的地理区域,但与WAN相比,规模较小,通常跨越城市或大都市地区。男人在城市范围内为企业,政府机构,教育机构和住宅社区提供高速连通性。他们支持广泛的服务,包括互联网访问,视频会议,IP电话和多媒体流媒体,满足城市人口的各种连通性需求。
由于可能存在数据偏差和预测方差,图像去噪是一项具有挑战性的任务。现有方法通常计算成本高。在这项工作中,我们提出了一种无监督图像去噪器,称为自适应双自注意网络(IDEA-Net),以应对这些挑战。IDEA-Net 受益于生成学习的图像双自注意区域,其中强制执行去噪过程。此外,IDEA-Net 不仅对可能的数据偏差具有鲁棒性,而且还通过仅在单个噪声图像上应用具有泊松丢失操作的简化编码器-解码器来帮助减少预测方差。与其他基于单图像的学习和非学习图像去噪器相比,所提出的 IDEA-Net 在四个基准数据集上表现出色。 IDEA-Net 还展示了在低光和嘈杂场景中去除真实世界噪声的适当选择,这反过来有助于更准确地检测暗脸。源代码可在 https://github.com/zhemingzuo/IDEA-Net 获得。
级联的 CMOS 突触芯片包含一个 32x32 (1024) 个可编程突触的交叉阵列,已被制造为用于完全并行实现神经网络的“构建块”。突触基于混合数模设计,该设计利用片上 7 位数据锁存器来存储量化权重,并利用两象限乘法 DAC 来计算加权输出。突触具有 6 位分辨率,传输特性具有出色的单调性和一致性。已制造了一个包含四个突触芯片的 64 神经元硬件,用于研究反馈网络在优化问题解决中的性能。在本研究中,已在硬件中实现了 7x7 一对一分配网络和 Hop field-Tank 8 城市旅行商问题网络。已证明该网络能够实时获得最佳或接近最佳的解决方案。
活神经网络通过生长和自组织过程出现,从单个细胞开始,最终形成大脑,一个有组织、有功能的计算设备。然而,人工神经网络依靠人类设计的手工编程架构来实现其卓越的性能。我们能否开发出无需人工干预就能生长和自组织的人工计算设备?在本文中,我们提出了一种受生物启发的开发算法,该算法可以从单个初始细胞“生长”出一个功能齐全的分层神经网络。该算法组织层间连接以构建视网膜主题池化层。我们的方法受到早期视觉系统所采用的机制的启发,在动物睁开眼睛前几天,该系统将视网膜连接到外侧膝状体 (LGN)。稳健自组织的关键因素是第一层中出现的自发时空活动波和第二层中“学习”第一层中底层活动模式的局部学习规则。该算法可适应各种输入层几何形状,对第一层中的故障单元具有鲁棒性,因此可用于成功增长和自组织不同池大小和形状的池架构。该算法提供了一种通过增长和自组织构建分层神经网络的原始程序。我们还证明了从单个单元增长的网络在 MNIST 上的表现与手工制作的网络一样好。从广义上讲,我们的工作表明,受生物启发的开发算法可以应用于在计算机中自主生长功能性“大脑”。
行为源自多个在解剖学和功能上不同的大脑区域的协调活动 1,2 。现代实验工具 3–5 使我们能够前所未有地接触大量神经群,甚至是横跨全脑许多相互作用区域的神经群 2 。然而,要理解如此大规模的数据集,不仅需要稳健、可扩展的计算模型来提取区域间通信的有意义特征,还需要原则性理论来解释这些特征。在这里,我们介绍了基于电流的分解 (CURBD),这是一种使用数据约束的循环神经网络模型 6 推断全脑相互作用的方法,该模型一旦经过训练,就会自主产生与实验获得的神经数据一致的动态。CURBD 利用从这些模型推断出的功能相互作用来同时揭示多个大脑区域之间的定向电流。我们首先表明,CURBD 可以在具有已知连接和动态的模拟真实网络中准确地隔离区域间电流。然后,我们将 CURBD 应用于从广泛的神经数据集(斑马鱼幼虫 7 、小鼠 8 、猕猴 9 和人类 10 )获得的多区域神经记录,以证明 CURBD 在解开全脑相互作用和行为背后的区域间通信原理方面的广泛适用性。
本文提出了一种非迭代训练算法,用于在自学习系统中应用节能的 SNN 分类器。该方法使用预处理间脑丘脑中典型的感觉神经元信号的机制。该算法概念基于尖点突变模型和路由训练。该算法保证整个网络中连接权重值的零分散,这在基于可编程逻辑器件的硬件实现的情况下尤为重要。由于非迭代机制受到联想记忆训练方法的启发,该方法可以估计网络容量和所需的硬件资源。训练后的网络表现出对灾难性遗忘现象的抵抗力。该算法的低复杂度使得无需使用耗电的加速器即可进行现场硬件训练。本文将该算法的硬件实现的复杂性与经典的 STDP 和转换程序进行了比较。该算法的基本应用是配备视觉系统并基于经典 FPGA 设备的自主代理。
征文:教育和教育研究中的人工智能国际研讨会 (AIEER) AIEER 2024 教育和教育研究中的人工智能国际研讨会是第 27 届欧洲人工智能会议 ECAI 2024 [https://www.ecai2024.eu/] 的一部分。本次研讨会定于 2024 年 10 月 19 日至 20 日星期六和星期日举行。 研讨会范围 本次研讨会有两个不同的重点,旨在更广泛地面向教育人工智能领域。 第 1 部分。由社会科学主导的讨论,讨论人工智能应用可能有助于解决的教育中的实际问题。这包括教育和教学人工智能的研究,也包括社会科学、经济学和人文学科,包括所有学科,如教育和教学实际行动、以教育需求为重点的劳动力市场研究、教育史和相关教育文化遗产,以及决策和行为科学观点的信息预测。一方面,我们关注人工智能、教育和社会之间的联系。这包括定量和定性研究、分析教育和劳动力市场数据的数据科学方法、推荐系统的人工智能方法以及数字化学习。另一方面,我们关注如何使用人工智能来突破该领域的界限。这包括开发新方法(包括使用人工智能的方法)、寻找和提供可访问的新数据源、丰富数据等等。在这两种情况下,不同观点之间的沟通和相互理解至关重要,这也是本次研讨会的目标之一。更广泛地说,我们感兴趣的是人工智能方法如何影响教育的所有领域以及企业和劳动力市场。这包括从小学到高等教育的所有教育部门如何受到人工智能方法的影响和对其作出反应的方法。用人工智能方法设计数字化未来为教育提出了几个问题:在最广泛的层面上,立法和规范问题;在公司层面,关于投资决策以及如何保持生产力和劳动力的问题;在个人层面,关于资格以及哪些技能需要应用和可能重新学习的问题。因此,技能和资格是教育和教育研究中人工智能的核心。第 2 部分。关于可以开发哪些人工智能应用程序(以及如何开发)来解决第 1 部分提出的问题的(计算机科学主导)讨论。使用基于人工智能的系统来支持教学或学习已经发展了 40 多年,但近年来,由于 COVID-19 大流行期间电子学习工具的使用增加以及最近生成人工智能的爆炸式增长,其增长显着增加。我们正处于这一领域发展的关键时刻,人工智能专家和教育专家必须携手合作,以在教学过程中最佳地利用这项技术。本次研讨会旨在为展示新提案和反思这一具有如此社会意义的领域的最新技术创造空间。在第一部分中,我们特别关注人工智能的技术方面,重点关注用于内容创建(生成式人工智能)、学生分析(机器学习)、学习分析或教师可解释的人工智能方法的具体技术
这项研究深入研究了人工智能(AI)和机器学习(ML)的应用,以优化和管理现代通信网络。随着数据流量的指数增长以及网络体系结构的增加,网络管理和优化的传统方法证明是不足的。AI和ML提供了新颖的方法来通过实现智能,自适应和自动化网络解决方案来应对这些挑战。该研究探讨了各种AI和ML技术,包括受监督和无监督的学习,强化学习和深度学习,及其在交通预测,资源分配,故障检测和自我修复网络中的应用。它还解决了AI/ML算法与网络管理系统的集成,研究了与可扩展性,实时处理和安全性有关的问题。通过模拟和现实世界案例研究,该研究表明了AI和ML提高网络性能,降低运营成本并提高整体服务质量的潜力。这项工作强调了AI和ML对网络优化和管理的变革性影响,强调了它们在下一代通信网络发展中的关键作用。
本文介绍了 DeepFLASH,一种用于基于学习的医学图像配准的高效训练和推理的新型网络。与从高维成像空间中的训练数据中学习空间变换的现有方法相比,我们完全在低维带限空间中开发了一种新的配准网络。这大大降低了昂贵的训练和推理的计算成本和内存占用。为了实现这一目标,我们首先引入复值运算和神经架构表示,为基于学习的配准模型提供关键组件。然后,我们构建了一个在带限空间中完全表征的变换场的显式损失函数,并且参数化要少得多。实验结果表明,我们的方法比最先进的基于深度学习的图像配准方法快得多,同时产生同样精确的对齐。我们在两种不同的图像配准应用中展示了我们的算法:2D 合成数据和 3D 真实脑磁共振 (MR) 图像。我们的代码可以在https://github.com/jw4hv/deepflash上找到。