尽管神经辐射场 (NeRF) 在图像新视图合成 (NVS) 方面取得了成功,但 LiDAR NVS 仍然基本上未被探索。以前的 LiDAR NVS 方法采用了与图像 NVS 方法的简单转变,同时忽略了 LiDAR 点云的动态特性和大规模重建问题。鉴于此,我们提出了 LiDAR4D,这是一个可微分的 LiDAR 专用框架,用于新颖的时空 LiDAR 视图合成。考虑到稀疏性和大规模特性,我们设计了一种结合多平面和网格特征的 4D 混合表示,以由粗到细的方式实现有效重建。此外,我们引入了从点云衍生的几何约束来提高时间一致性。对于 LiDAR 点云的真实合成,我们结合了光线丢弃概率的全局优化来保留跨区域模式。在 KITTI-360 和 NuScenes 数据集上进行的大量实验证明了我们的方法在实现几何感知和时间一致的动态重建方面具有优越性。代码可在 https://github.com/ispc-lab/LiDAR4D 获得。
我相信,在个人学习方面,人工智能作为传统教育方法的补充具有巨大潜力。然而,除了潜力之外,人工智能的快速发展还引发了许多道德问题,这些问题往往解决得太晚,而且程度有限。
目前,大多数本体编辑工作流程都涉及为本体中的每个术语或类别手动输入多条信息(也称为公理)。这些信息包括唯一标识符、人性化标签、文本定义,以及将术语与其他术语(无论是在同一个本体中还是在不同的本体中)连接起来的关系 (7)。例如,ID 为 CL:1001502 的细胞本体 (CL) (8) 术语具有标签“僧帽细胞”,与术语“中间神经元”(CL:0000099) 具有 subClassOf (is-a) 关系,与 Uberon 术语“嗅球僧帽细胞层”(UBERON:0004186) 具有“具有体细胞位置”关系 (9),以及文本定义:大型谷氨酸能神经细胞,其树突与嗅球肾小球层中的嗅觉受体神经元的轴突突触,其轴突在嗅束中集中传递到嗅觉皮层。大部分信息都是手动输入的,使用专用的本体开发环境(如 Protégé (10))或使用电子表格,随后使用 ROBOT (11) 等工具将其转换为本体。在某些情况下,可以使用 OWL 推理 (12) 自动分配“is-a”关系,但这依赖于本体开发人员预先为术语子集指定逻辑定义(一种特定类型的公理)。该策略广泛应用于多种不同的生物本体(生物本体),尤其是那些涉及许多组合术语的本体,导致大约一半的术语具有以这种方式自动分配的子类关系(13-16)。
多年来,单板计算机 (SBC) 领域的发展一直在不断加快。它们在计算性能和功耗之间实现了良好的平衡,这通常是移动平台所必需的,例如用于高级驾驶辅助系统 (ADAS) 和自动驾驶 (AD) 的车辆应用。然而,对更强大、更高效的 SBC 的需求日益增长,这些 SBC 可以实时运行功耗密集型深度神经网络 (DNN),还可以满足必要的功能安全要求,例如汽车安全完整性等级 (ASIL)。ZF 正在开发“ProAI”,主要用于运行强大而高效的应用程序,例如多任务 DNN,此外,它还具有 AD 所需的安全认证。在这项工作中,我们基于功耗密集型多任务 DNN 架构 Multitask-CenterNet,就 FPS 和功率效率等性能指标比较和讨论了最先进的 SBC。作为一款汽车超级计算机,ProAI 实现了性能和效率的完美结合,其每瓦 FPS 数量几乎是现代工作站笔记本电脑的两倍,几乎是 Jetson Nano 的四倍。此外,根据基准测试期间的 CPU/GPU 利用率,还显示 ProAI 上仍有剩余电量用于执行进一步更复杂的任务。
学习多个参与者之间的时空关系对于群体活动识别至关重要。不同的群体活动通常会展示视频中参与者之间的多样化互动。因此,从时空参与者演化的单一视角来建模复杂的群体活动往往很困难。为了解决这个问题,我们提出了一个独特的双路径参与者交互 (Dual-AI) 框架,它以两种互补的顺序灵活地排列空间和时间变换器,通过整合不同时空路径的优点来增强参与者关系。此外,我们在 Dual-AI 的两个交互路径之间引入了一种新颖的多尺度参与者对比损失 (MAC-Loss)。通过帧和视频级别的自监督参与者一致性,MAC-Loss 可以有效区分单个参与者表示,以减少不同参与者之间的动作混淆。因此,我们的 Dual-AI 可以通过融合不同参与者的这些判别特征来增强群体活动识别。为了评估所提出的方法,我们在广泛使用的基准上进行了大量实验,包括排球 [ 21 ]、集体活动 [ 11 ] 和 NBA 数据集 [ 49 ]。所提出的 Dual-AI 在所有这些数据集上都实现了最佳性能。值得注意的是,所提出的 Dual-AI 使用 50% 的训练数据,其性能优于许多近期使用 100% 训练数据的方法。这证实了 Dual-AI 在群体活动识别方面的泛化能力,即使在有限监督的具有挑战性的场景下也是如此。
摘要 本文讨论了可用的人工智能 (AI) 模型的组合,即神经语言模型 (NLM) 与经过训练的 GAN 和人类解释,以促进架构构思。工作流程使用语义提示识别推测设计的概念场景。结果成为视觉参考,以补充修订的语义描述,以指导 VQGAN+CLIP 模型,利用对结果的控制,然后使用降维对结果进行排序,并进一步策划以训练其他模型 (GAN)。NLM 对文本输入的解释增加了跨越更大语义距离的可能性,以实现创造性的视觉结果,而 AI-人类步骤的嵌套工作流程可以自动查询更大的解决方案空间。此外,它还考虑了基于语言 (NLM) 的处理模型 (LeCun, 2021) 导致的视觉数据 (Hadamard, 1945) 的低带宽、还原编码问题,这可能会限制设计机构。
识别并最终消除吞吐量瓶颈是提高生产系统吞吐量和生产率的关键手段。然而,在现实世界中,消除吞吐量瓶颈是一项挑战。这是由于工厂动态环境复杂,数百台机器同时运行。学术研究人员试图开发工具来帮助识别和消除吞吐量瓶颈。从历史上看,研究工作一直集中在开发分析和离散事件模拟建模方法来识别生产系统中的吞吐量瓶颈。然而,随着工业数字化和人工智能 (AI) 的兴起,学术研究人员基于大量数字车间数据,探索了使用 AI 消除吞吐量瓶颈的不同方法。通过进行系统的文献综述,本文旨在介绍使用 AI 进行吞吐量瓶颈分析的最新研究成果。为了让学术界的 AI 解决方案更容易为实践者所接受,研究工作分为四类:(1)识别、(2)诊断、(3)预测和(4)开处方。这是受到现实世界吞吐量瓶颈管理实践的启发。识别和诊断类别侧重于分析历史吞吐量瓶颈,而预测和开处方侧重于分析未来的吞吐量瓶颈。本文还提供了未来的研究主题和实用建议,可能有助于进一步突破 AI 在吞吐量瓶颈分析中的理论和实际应用的界限。
高光谱图像 (HSI) 分类旨在为每个像素分配一个唯一标签,以识别不同土地覆盖的类别。现有的 HSI 深度学习模型通常采用传统学习范式。作为新兴机器,量子计算机在嘈杂的中尺度量子 (NISQ) 时代受到限制。量子理论为设计深度学习模型提供了一种新的范式。受量子电路 (QC) 模型的启发,我们提出了一种受量子启发的光谱空间网络 (QSSN) 用于 HSI 特征提取。所提出的 QSSN 由相位预测模块 (PPM) 和受量子理论启发的类测量融合模块 (MFM) 组成,以动态融合光谱和空间信息。具体而言,QSSN 使用量子表示来表示 HSI 长方体,并使用 MFM 提取联合光谱空间特征。量子表示中使用了 HSI 长方体及其由 PPM 预测的相位。使用 QSSN 作为构建块,我们进一步提出了一种端到端的量子启发式光谱空间金字塔网络 (QSSPN),用于 HSI 特征提取和分类。在这个金字塔框架中,QSSPN 通过级联 QSSN 块逐步学习特征表示,并使用 softmax 分类器进行分类。这是首次尝试将量子理论引入 HSI 处理模型设计。在三个 HSI 数据集上进行了大量实验,以验证所提出的 QSSPN 框架相对于最新方法的优越性。
