“人工智能会创造宗教吗?”我曾多次被问到这个问题,通常是在我公开介绍我对人工智能和宗教的研究之后,或者在播客期间。我不会试图回答这个问题,因为这超出了人类学的方法范围。在这里,我将探讨网上对这个问题的回答如何告诉我们公众如何看待人工智能、宗教及其关系。然而,网上和其他地方的答案表明了人们对人工智能对宗教影响的共同看法,并与现有的宗教理论相似。当我们讨论宗教理论时,对宗教从何而来的问题大致有两种看法。要么宗教是人为的,从我们的心理和社会过程中产生,有时是故意的,就像“发明的宗教”一样,1 有时不是。或者宗教是神创造的,由超自然力量揭示。后者仍然产生了社会科学研究可以观察到的宗教机构、文化和社会现象。有些有
为了自主驾驶模拟,早期尝试[8,32,35]部署游戏引擎来渲染图像。它不仅需要耗时的过程来重建虚拟场景,而且还需要以低现实主义的形式产生结果。,用于新型视图Synthesis(NVS)的神经渲染技术,例如神经辐射场(NERF)[21]和3D高斯分裂(3DGS)[14],用于同步,以使照片现实主义的街道视图进行同步。当前的研究[4、10、20、23、28、39、43、47、48、51、59]主要是街道视图合成中面临的两个挑战:无界场景的重建和染色体对象的建模。尽管已经取得了令人兴奋的进度,但在现有作品中尚未很好地探索评估重建质量的关键问题。众所周知,理想的场景仿真系统应具有高质量的自由视线渲染的能力。目前的作品通常采用从vehicle捕获而在训练阶段却看不见的观点(例如图。1),同时忽略了偏离训练观点的小说观点(例如图。1)。处理这些新颖的观点时,呈现质量的降低明显降低,对现有作品的模糊和伪像,如图1。此问题归因于车辆收集的图像的固有约束视图。训练图像通常沿着车辆的行驶方向捕获,并以车辆的车道为中心。由于车辆的快速行驶速度,框架之间的超偏度有限,因此不允许对现场中的物体进行全面的多视觉观察。因此,可以从稀疏视图中将自动驾驶的街道视图综合任务理解为重建问题。
https://www.linkedin.com/in/haramhovsep https://www.linkedin/codi fi <https://www.linkedin.com/in/haramhovsep https://www.linkedin/codi fi <
我们介绍了Multidiff,这是一种新颖的方法,用于从单个RGB图像中始终如一地进行新颖的视图综合。从单个参考图像中综合新观点的任务是大自然的高度不足,因为存在多种对未观察到的区域的合理解释。为了解决这个问题,我们以单核深度预测变量和视频扩散模型的形式结合了强大的先验。单核深度使我们能够在目标视图的扭曲参考图像上调节模型,从而提高了几何稳定性。视频扩散先验为3D场景提供了强大的代理,从而使模型可以在生成的图像上学习连续和像素精度的对应关系。与依靠容易出现漂移和误差累积的自动格言形象生成的方法相反,Multidiff共同综合了一系列帧,产生了高质量和多视图一致的RE-
基于锚点的大规模多视图聚类因其在处理海量数据集方面的有效性而引起了广泛关注。然而,当前的方法主要通过探索锚点图或投影矩阵之间的全局相关性来寻找用于聚类的共识嵌入特征。在本文中,我们提出了一种简单而有效的可扩展多视图张量聚类(S 2 MVTC)方法,我们的重点是学习视图内和跨视图的嵌入特征的相关性。具体而言,我们首先通过将不同视图的嵌入特征堆叠到张量中并旋转它来构造嵌入特征张量。此外,我们构建了一种新颖的张量低频近似(TLFA)算子,它将图相似性结合到嵌入特征学习中,有效地实现不同视图内嵌入特征的平滑表示。此外,对嵌入特征应用共识约束以确保视图间语义一致性。在六个大规模多视图数据集上的实验结果表明,S 2 MVTC 在聚类性能和 CPU 执行时间方面明显优于最先进的算法,尤其是在处理海量数据时。S 2 MVTC 的代码已公开发布在 https://github.com/longzhen520/S2MVTC。
1有关矿物质关键评估的更详细讨论,请参见Whittle,D.,M。Yellishetty,S。D。Walsh,G。Mudd和Z. Weng(2020)。矿物质批判性评估。Alta 2020铀和REE会议。 A. Taylor。 珀斯。Alta 2020铀和REE会议。A. Taylor。 珀斯。A. Taylor。珀斯。
来自图像的深度估计是具有广泛应用的计算机视觉中的一个长期问题。对于基于视觉的自动驾驶系统,感知深度是理解道路对象和建模3D环境图的相关性的不可或缺的模块。由于深度神经网络用于求解各种视觉概率,因此基于CNN的方法[2-5,13,39 - 42,44,44,46,48,52]主导了各种深度基准。根据输入格式,它们主要将其分为多视图深度估计[3,13,23,26,44,45,51,53]和单视深度估计[14 - 16,19,37,38]。多视图方法估计深度的假设,即给定的深度,相机校准和摄像头姿势,这些像素应相似。他们依靠表现几何形状来三角形高质量深度。但是,多视图方法的准确性和鲁棒性在很大程度上依赖于相机的几何配置以及视图之间匹配的对应关系。首先,需要足够翻译相机以进行三角度。在自主驾驶的情况下,汽车可能会停在交通信号灯处或不移动而不移动,这会导致故障三角剖分。此外,多视图方法遭受动态对象和无动电区域的影响,它们在自动驱动方案中无处不在。另一个问题是对移动车辆的施加优化。在存在的大满贯方法中不可避免地噪声,更不用说具有挑战性和可取的情况了。具体来说,我们提出了一个两个分支网络,即例如,一辆机器人或自动驾驶汽车可以在不重新校准的情况下部署多年,原因是嘈杂的姿势。相比之下,作为单视图方法[14 - 16,19,37,38]依赖于对场景的语义理解和透视投影提示,它们对无纹理区域,动态对象,而不是依赖相机姿势更为易用。但是,由于规模歧义,其性能仍然远非多视图方法。在这里,我们倾向于考虑是否可以很好地结合两种方法的好处,以实现自主驾驶场景中的稳健和准确的单眼视频深度估计。尽管已经在先前的工作中探索了基于融合的系统[1,9],但他们都假定了理想的相机姿势。结果是融合系统的性能甚至比单视深度估计的噪声姿势还差。为了解决这个问题,我们提出了一个新型的自适应融合网络,以利用多视图和单视图方法的优势,并减轻其缺点,以保持高度的精度,并在噪声姿势下提高系统的影响力。一个靶向单眼深度提示,而另一个则利用多视图几何形状。两个分支都预测了深度图和置信图。补充语义提示和边缘细节在多视图分支的成本汇总中丢失了
尽管神经辐射场 (NeRF) 在图像新视图合成 (NVS) 方面取得了成功,但 LiDAR NVS 仍然基本上未被探索。以前的 LiDAR NVS 方法采用了与图像 NVS 方法的简单转变,同时忽略了 LiDAR 点云的动态特性和大规模重建问题。鉴于此,我们提出了 LiDAR4D,这是一个可微分的 LiDAR 专用框架,用于新颖的时空 LiDAR 视图合成。考虑到稀疏性和大规模特性,我们设计了一种结合多平面和网格特征的 4D 混合表示,以由粗到细的方式实现有效重建。此外,我们引入了从点云衍生的几何约束来提高时间一致性。对于 LiDAR 点云的真实合成,我们结合了光线丢弃概率的全局优化来保留跨区域模式。在 KITTI-360 和 NuScenes 数据集上进行的大量实验证明了我们的方法在实现几何感知和时间一致的动态重建方面具有优越性。代码可在 https://github.com/ispc-lab/LiDAR4D 获得。
