在各个领域,人体位置的准确估计至关重要,并且通常涉及使用运动捕获系统。最近,由于艺术家愿景的进展,我们目睹了这项技术的强劲发展,尤其是在基于相机的系统中,但是,尽管这些技术在安装的估计中提供了准确的结果,但涉及高成本并需要计算含义。作为一种经济替代方案,如Aruco之类的发现标记以其简单性,低计算需求和适应性而获得了知名度,但是,在文献中,基于它们的运动捕获系统的精确性有限。因此,本研究旨在收集突出的差距,对基于标记的运动捕获系统的性能进行实验分析,并将其与Optitrack开发的现代商业系统进行比较。这项研究中的基于Aruco的设备是最初使用ELP网络摄像头和具有立体视觉ZED 2 I的相机制成的。研究评估了估计静态和动态场景的错误,分析了相机工作区域的区域,还探索了估计铺设铺设的错误与使用越来越多的标记Aruca之间的关系。
抽象无人机群由多个无人机组成,这些无人机可以实现单个无人机无法实现的任务,例如在大面积上进行搜索,恢复或监视。群的内部结构通常由多个无人机自动工作。可靠的检测和对群体和单个无人机的跟踪,可以更了解群的行为和运动。对无人机行为的了解增加,可以更好地协调,避免碰撞以及对群体中各个无人机的性能监控。本文提出的研究提出了一种基于深度学习的方法,可实时使用立体视觉摄像机在群中可靠地检测和跟踪单个无人机。这项研究背后的动机是需要更深入地了解群体动态,从而改善协调,避免碰撞以及对群体中各个无人机的性能监控。提出的解决方案提供了一个精确的跟踪系统,并考虑了无人机的高度密集和动态行为。在各种配置中,在稀疏和密集网络中评估了该方法。通过实施一系列比较实验,已经分析了提出解决方案的准确性和效率,这些实验证明了在群中检测和跟踪无人机的合理精度。
视觉导航是机器人技术中的基本问题之一。在过去十年中,这一领域取得了许多重要贡献。截至目前,基于特征点的方法最为流行。虽然这些方法在许多应用中都取得了成功,但无纹理环境对于这些方法来说可能存在很大问题,因为在这些场景中可靠的特征点数量通常很少。尽管如此,边缘可能仍然大量可用,但却未被使用。在本论文中,我们提出了互补的基于边缘的方法,用于视觉定位、映射和密集重建,这些方法在理论上最小的场景配置中仍可运行。从稀疏立体边缘匹配开始,我们提出了两种具有不同性能/效率权衡的技术,它们都针对实时操作。除了与流行的密集立体技术进行比较之外,我们还将这些算法与我们对基于线段的立体方法的有效改编进行了比较。谈到立体视觉里程计,我们提出了一种基于线段的重新投影优化方法,该方法能够在无纹理环境中发挥作用,而经过验证的最先进的基于特征点的方法则无法发挥作用。我们认为,我们的方法甚至可以应对理论上最小的情况,即仅由两个非平行线段组成。然后,我们将这种方法扩展为基于完整线段的同时定位和映射解决方案。使用捆绑调整,我们能够
纸张涉及视觉伺服(VS),这是一种使用视觉信息引导机器人的众所周知的方法。在这里,将图像处理,机器人技术和控制理论组合在一起,以控制机器人的运动。该主题解释了VS的分类以及不同的相机配置及其控件。它还涵盖了图像处理,姿势估计,立体声视觉和摄像机校准,以机器人概念为例。图像处理包括两个基本操作:图像分割和图像解释。姿势代表机器人的位置和方向,该位置和方向是通过分析溶液,相互作用矩阵和算法溶液估算的。立体视觉代表基于机器人左和右眼(相机)对象图像之间的双眼差的对象深度的计算。对象的深度是通过四种基本方法计算的:来自平面同构象的表现几何,三角剖分,绝对取向和3D重建。摄像机校准是确定特定相机参数的过程,以便使用指定的测量完成操作。此外,它还侧重于基于3D视觉伺服和深层神经网络的机器人操纵(在学校中的娱乐场所),非线性鲁棒性视觉伺服器控制,用于机器人柑橘的收获,基于图像的磁滞性减少,以减少灵活的内窥镜仪器(Laparososcic Robotic robotic Sulobots)。
摘要。在许多应用中,对可靠、小型且低成本的三维成像系统的需求很大。对于汽车应用以及安全的人机协作等应用而言,有前途的系统是基于直接飞行时间原理的光检测和测距 (激光雷达) 系统。特别是对于覆盖大视野或长距离能力,以前使用的多边形扫描仪已被微机电系统 (MEMS) 扫描仪取代。最近的发展是用单光子雪崩二极管 (SPAD) 取代通常使用的雪崩光电二极管。与其他方法相比,将这两种技术结合到基于 MEMS 的 SPAD 激光雷达系统中有望显着提高性能并降低成本。为了区分信号和背景/噪声光子,基于 SPAD 的探测器必须通过累积多个时间分辨测量来形成直方图。本文提出了一种信号和数据处理方法,该方法考虑了直方图形成过程中 MEMS 扫描仪的时间相关扫描轨迹。基于立体视觉设置中使用的已知重建过程,推导出累积时间分辨测量的估计值,从而可以将其分类为信号或噪声。除了信号和数据处理的理论推导外,还在基于 MEMS 的概念验证 SPAD 激光雷达系统中通过实验验证了实现。© 作者。由 SPIE 根据知识共享署名 4.0 国际许可发布。全部或部分分发或复制本作品需要完全署名原始出版物,包括其 DOI。[DOI:10.1117/1.JOM.2.1.011005]
可能包括会聚不足 (CI)、调节功能障碍、最低眨眼率、注意力下降、眼球运动障碍和视觉空间扭曲,这些通常与异常的自我中心定位有关 [3]。由于 mTBI 患者中出现的 PTVS 症状与脑震荡后综合症 (PCS) 的症状非常相似,因此在本文中我们将互换使用 mTBI 和 PCS 这两个术语。大多数患者还会出现持续存在于 PCS 中的显著非视觉症状,从睡眠障碍和颈部劳损到焦虑和抑郁程度加重 [4]。因此,对于许多诊断为 mTBI 的患者,需要与物理和职业治疗师、脊椎按摩师、言语/语言治疗师、神经病学家和理疗师共同治疗。脑震荡后视力完全恢复的预后通常是积极的。根据症状的严重程度,治疗方案有很多种,包括镜片、棱镜和视光学治疗 [ 5–7 ]。如 Press [ 8 ] 所述,微棱镜这个术语最初由 Bowan 引入,表示通常在 1 棱镜屈光度范围内的少量治疗性基底棱镜,但也可以适用于其他基底方向的棱镜。微棱镜已成为视光学康复的成功工具。Press 详述的方法使用常规工具探测微棱镜的适应症,就像人们探测会聚不足和其他形式的双眼功能障碍一样。这些包括相关隐斜视、注视差异、自由空间融合、跳跃会聚和立体视觉。虽然我们使用这些工具对 mTBI 患者进行双眼评估,但我们发现其他临床评估方法也很有价值。这些探测将在以下部分中讨论,并通过 5 名患者的病例系列进行说明。
摘要 在自然环境中,感觉处理和运动输出紧密相关,这反映在许多大脑区域同时包含感觉和运动信号的事实中。然而,标准的还原论范式将感觉决策与其自然的运动后果分离开来,而头部固定会阻止自我运动的自然感觉后果。特别是,在环境中的运动提供了许多深度线索,这些线索超出了立体视觉的范围,但人们对这些线索知之甚少。为了研究自然任务中视觉处理和运动输出的整合,我们研究了自由移动小鼠的距离估计。我们发现小鼠使用视觉准确地跳过可变间隙,从而将视觉计算直接耦合到其相应的行为运动输出。单眼眼睑缝合不影响间隙跳跃成功,因此小鼠可以使用不依赖于双眼视差和立体视觉的线索。在单眼条件下,小鼠改变了头部位置并进行了更多的垂直头部运动,这与从使用立体视觉转向其他单眼线索(如运动或位置视差)的转变一致。最后,当光纤分别位于双眼或单眼 V1 区时,对初级视觉皮层的光遗传抑制会损害双眼和单眼条件下的任务表现。总之,这些结果表明小鼠可以使用单眼线索,依靠视觉皮层来准确判断距离。此外,这种行为范式为研究神经回路如何将感觉信息转化为行为运动输出奠定了基础。
介绍 视觉深度感知(立体视觉)传统上是通过评估受试者可检测到的最小双眼视差来测试的。然而,事实表明,在日常生活中无法区分单眼和双眼视觉的受试者在视差测试中可能会得分较高(“立体视觉障碍”)。研究发现,产生视觉感知(立体延迟)所需的双眼测试刺激的最短持续时间与日常立体视觉障碍的相关性更高。我们描述了一种评估立体延迟的新方法,该方法不需要除个人计算机(PC)和一副 3D 眼镜(带绿色和红色镜片)以外的特殊仪器。材料和方法受试者舒适地坐在 IBM 兼容 PC 的屏幕前,戴着一副带绿色和红色滤光片(镜片)的 3c0 眼镜。计算机屏幕上以以下方式生成随机点立体图:最初只显示绿点,然后突然添加红点。并在屏幕上持续一段随机设定的可变时间(25-500 毫秒)。时间步长通常为 25 毫秒。每次三次持续 4 秒,双眼刺激总是在这个时间结束时出现。受试者在三次之后按下两个键之一以表示深度知觉的缺失或存在。能够引出 70% 或更多正确答案的最小呈现时间(每个时间步长重复 10 次)被记录为立体延迟。结果到目前为止,已有 7 名 24-45 岁的正常受试者接受了测试。一名受试者未通过测试,无法在任何时间步长上表现得比偶然情况更好。对于其余受试者,平均立体延迟为 250 毫秒(SD=25 毫秒)。结论这似乎是一种有效的、易于实施的协议,用于确定随机点立体图的立体延迟。目前正在改进该程序,以便更精确地测定最小立体潜伏期值,并使正常人和患有神经眼科疾病的患者的值标准化。
由于遥感领域提供了新的传感器和技术来积累城市区域的数据,这些区域的三维表示在各种应用中引起了很大的兴趣。三维城市区域表示可用于详细的城市监测、变化和损坏检测目的。为了获得三维表示,最简单和最便宜的方法之一是使用数字高程模型 (DEM),它是使用立体视觉技术从非常高分辨率的立体卫星图像生成的。不幸的是,在应用 DEM 生成过程后,我们无法直接获得三维城市区域表示。在仅使用一个立体图像对生成的 DEM 中,通常噪声、匹配误差和建筑物墙壁位置的不确定性非常高。这些不良影响增加了三维表示的复杂性。因此,自动 DEM 增强是一个开放且具有挑战性的问题。为了增强 DEM,我们在此提出了一种基于建筑物形状检测的方法。我们使用慕尼黑的 DEM 和正射全色 Ikonos 图像来解释我们的方法。在对 DEM 和 Ikonos 图像进行预处理后,我们对 DEM 应用局部阈值来检测建筑物等高城市物体的大致位置。为了检测复杂的建筑物形状,我们开发了之前的矩形形状检测(箱体拟合)算法。不幸的是,我们研究区域中的建筑物形状非常复杂。我们假设可以通过像链条一样拟合小矩形来检测这些复杂建筑物的形状。因此,我们将检测到的建筑物分成细长的子部分。然后,我们将之前的矩形形状检测算法应用于这些子部分。在形状检测中,我们考虑 Ikonos 图像的 Canny 边缘以适应矩形框。合并所有检测到的矩形后,我们可以检测甚至非常复杂的建筑结构的形状。最后,使用检测到的建筑物形状,我们在 DEM 中细化建筑物边缘并平滑建筑物屋顶上的噪声。我们相信实施的增强功能不仅可以提供更好的视觉三维城市区域表示,而且还将导致详细的变化和损坏调查。
近年来,已经出现了许多用于捕捉三维环境和物体的传感器系统。除了激光扫描仪和大地测量全站仪外,这里还必须列举立体视觉和基于三角测量的系统。特别是激光扫描仪在速度和准确性方面已成为最先进的技术,能够捕捉数十米大小的物体。激光扫描仪的主要缺点是它们的顺序操作模式。它们逐点测量。几年前,开发了一种功能齐全的新技术,能够同时以高分辨率捕捉环境。所谓的范围成像 (RIM) 或闪光激光雷达相机基于数字成像技术,并具有测量每个像素中相应物体点距离的能力。距离测量基于直接或间接飞行时间原理。由于其并行采集高达视频帧速率,RIM 相机甚至可以捕捉移动物体。就光学依赖性而言,可以得出所捕获场景的 3-D 坐标。距离测量的标称精度为几毫米。如果属性和特性变得稳定且可预测,RIM 可能成为许多应用的首选技术。例如,汽车、机器人和安全系统。标称坐标和测量坐标之间的显著偏差发生在几厘米的范围内。只有深入的研究才能帮助达到这里的理论极限。本论文讨论了影响 RIM 相机测量的几个方面。首先,简要介绍与 RIM 相关的基本技术。除了成像和距离测量方法外,RIM 还区分了两个基本原理。此外,重点放在特定的限制上。在这项工作期间,有三种不同的相机问世:瑞士 CSEM / MESA Imaging 的 SwissRanger SR-2 和 SR-3000,以及后来德国 PMDtec 的 3k-S。这三款相机基于间接飞行时间原理,配备了不同的复杂功能。除了集成的校准和校正功能外,抑制背景照明也是主要功能之一。但是,这些相机仅用于高度发达的演示。根据所需权利要求,对特定应用领域(如汽车或机器人)的适应性可产生专门的属性。对现有相机类型的分析有助于更深入地了解该技术。所分析相机的原始数据精度不超过几厘米。为了研究现有相机的属性,必须开发特殊的实验装置。这项工作的主要部分涉及 RIM 相机组件的研究和校准。通过摄影测量相机校准解决光学系统的几何偏差。根据偏差和统计数据分析距离测量系统。因此,指出了精度和准确度的局限性。除了散射效应的影响外,还讨论了积分时间、发射系统和入射角、目标反射率、外部和内部温度以及最终的线性度和固定模式噪声。此外,还介绍了一种系统校准过程的方法。由于影响参数的复杂性,尚未对各种影响参数的测量数据进行完整的校正。但高度系统的依赖关系预示着未来会出现复杂的校准程序。这项工作有助于理解传感器。
