摘要 - 计算机视觉是一项快速前进的技术,在很大程度上依赖相机传感器来为机器学习(ML)模型提供决策。已确认在各种未来派应用中发挥关键作用,例如自动驾驶汽车的进步,自动驾驶和目标跟踪无人机,停车援助和避免碰撞系统。但是,随着硬件级传感器黑客攻击的越来越多,即使是相机传感器也容易受到损害。本实验论文提出了使用电磁干扰(EMI)对机器计算机视觉(CV)进行机器学习能力的传感器黑客攻击的想法。开发了中端EMI入侵设备,以破坏计算机视觉系统的准确性和监督功能。评估研究了传感器黑客入侵对依赖实时饲料的障碍识别模型至关重要的摄像头传感器的影响,从而比较了有或没有传感器篡改的决策能力以评估整体效果。我们的结果表明,EMI显着影响相机传感器的性能,降低基于机器学习的对象检测系统的准确性和帧速率。这些发现强调了相机传感器对传感器黑客入侵的脆弱性,并突出了需要改进安全措施以保护计算机视觉系统中此类攻击的必要性。索引术语 - EMI,计算机视觉(CV),ML,自动驾驶车辆,避免碰撞
在采用全新、最先进的 APS 探测器芯片技术来减小尺寸和重量的同时,最大限度地利用了传统技术。这从一开始就保证了这款多功能相机的耐用性、可靠性、性能和价格实惠性。
除了我们认为可以帮助遏制鲁莽驾驶的这项扩展之外,我们还希望对那些特别顽固的司机施加更严厉的处罚,对他们来说,反复的罚款似乎没有起到任何威慑作用。这些司机占闯红灯违规司机的不到 0.5%,但我们的研究表明,他们构成了不成比例的威胁——因为他们发生造成伤害的车祸的可能性是其他人的三倍。因此,纽约市交通局支持州参议员迈克尔·贾纳里斯 (S451) 和众议员威廉·马格纳雷利 (A7621) 提出的第二项法案,该法案授权机动车辆管理局暂停 12 个月内累计闯红灯五次或五次以上违规者的车辆登记,以解决惯犯持续鲁莽驾驶的问题。
在游乐园行业中,现有的摄像头系统不仅在快速骑行上捕获清晰,高质量的图像,而且还面临着挑战,在水上滑梯上捕获的位置不一致,其中不同的客人重量会影响下降的速度,从而影响了图像的组成。此外,这些系统依赖于具有反射器的光学触发传感器,这些反射器容易撕下水滑梯,从而导致维护问题并进一步破坏始终定位的镜头的捕获。
摘要。机器人远程操作是执行复杂任务的重要工具,这些任务需要超出最先进算法能力的灵活性。现有的远程操作方法通常对人类操作员来说不直观,或者需要特殊的传感器和设备,这使得它们在许多情况下成本低且不切实际。在本文中,我们提出了一种依赖单目相机图像的机械臂远程操作框架。所提出的框架首先使用轻量级神经网络来估计人类操作员的身体姿势并识别他们的手势。然后,一种高效的逆运动学算法找到所需的机械臂配置,实现模仿操作员手腕运动的末端执行器运动。我们的远程操作框架可以在普通笔记本电脑上使用网络摄像头和任何具有 ROS 接口的机械臂执行。我们在 Kinova Jaco 机械臂的实际实验中验证了它的性能,展示了在环境中抓取和移动物体的能力。
推荐引用 推荐引用 Alblooshi,Fatma Sabeel,“阿联酋使用闭路电视摄像机进行更智能监控的人工智能”(2021 年)。论文。罗彻斯特理工学院。访问自
摘要 - 我们提出了一种估算事件数据的密集连续时间光流的方法。传统的致密光流方法计算两个图像之间的像素位移。由于缺少信息,这些方法无法在两个图像之间的盲时间中恢复像素轨迹。在这项工作中,我们表明可以使用事件相机中的事件来计算每像素,连续的光流。事件由于其渐进性和微秒响应时间而提供了有关像素空间中运动的时间细粒信息。我们利用这些好处来通过参数化的B´ezier曲线在连续的时间内密集地预测像素轨迹。为了实现这一目标,我们构建了一个具有强大诱导偏见的神经网络:首先,我们使用事件数据及时构建了多个顺序相关量。第二,我们使用B´ezier曲线在沿轨迹的多个时间戳上为这些相关量索引。第三,我们使用检索到的相关性迭代更新B´ezier曲线表示。我们的方法可以选择包括图像对,以进一步提高性能。据我们所知,我们的模型是可以从事件数据中回归密集的像素轨迹的第一种方法。为了训练和评估我们的模型,我们引入了一个合成数据集(Multiflow),该数据集(Multiflow)具有每个像素的移动对象和地面真相轨迹。开源代码和数据集向公众发布。我们的定量实验不仅表明我们的方法在连续的时间内成功预测了像素轨迹,而且在多速和DSEC-Flow上的传统两视频像素位移中也具有竞争力。
摘要人类机器人合作(HRC)在先进的生产系统中越来越重要,例如在行业和农业中使用的系统。这种类型的协作可以通过减少人类的身体压力来促进生产率的提高,从而导致伤害减少并改善士气。HRC的一个关键方面是机器人安全遵循特定的人类操作员的能力。为了应对这一挑战,提出了一种新的方法,该方法采用单眼视力和超宽带(UWB)收发器来确定人类目标相对于机器人的相对位置。UWB收发器能够用UWB收发器跟踪人类,但具有显着的角度误差。为了减少此错误,使用深度学习对象检测的单眼摄像机来检测人类。使用基于直方图的滤波器结合了两个传感器的输出,可以通过传感器融合来减少角度误差。此过滤器项目并将两个源的测量值与2D网格相交。通过结合UWB和单眼视觉,与单独的UWB定位相比,角度误差的降低了66.67%。这种方法表明,以0.21 m/s的平均速度跟踪人行走时,平均处理时间为0.0183,平均定位误差为0.14米。这种新颖的算法有望实现有效和安全的人类机器人合作,为机器人技术提供了宝贵的贡献。
摘要 - 常规摄像机在传感器上捕获图像辐照度(RAW),并使用图像信号处理器(ISP)将其转换为RGB图像。然后可以将图像用于各种应用中的摄影或视觉计算任务,例如公共安全监视和自动驾驶。可以说,由于原始图像包含所有捕获的信息,因此对于视觉计算而言,使用ISP不需要将RAW转换为RGB。在本文中,我们提出了一个新颖的ρ视框框架,以使用原始图像进行高水平的语义理解和低级压缩,而没有数十年来使用的ISP子系统。考虑到可用的原始图像数据集的稀缺性,我们首先开发了一个基于无监督的Cyclegan的不成对循环2R网络,以使用未配对的RAW和RGB图像来训练模块化的ISP和Inverse ISP(Invisp)模型。然后,我们可以使用任何最初在RGB域中训练的现有RGB图像数据集和Finune不同的模型来生成模拟的原始图像(SIMRAW),以处理现实世界中的相机原始图像。我们使用原始域yolov3和摄像头快照上的原始图像压缩机(RIC)演示了原始域中的对象检测和图像压缩功能。定量结果表明,与RGB域相比,原始域任务推断提供了更好的检测准确性和压缩效率。此外,所提出的ρVision在各种摄像机传感器和不同的任务特定模型上概括了。采用ρ视频的另外一种有益的是消除对ISP的需求,从而导致计算和处理时间的潜在减少。
摘要在这项研究中,我们从安装在车辆上的3D激光雷达和外部交通监视摄像头的图像中融合数据,以创建经常洪水泛滥的道路部分的3D表示。这项研究中的LIDAR的点云数据是从ODU校园附近Norfolk的W 49街的一条路段收集的。交通监视摄像头安装在同一地区的公共停车大楼上。LIDAR在车辆穿越该部分时会收集连续的点云框架。使用ICP注册方法将与外部摄像头监控的多个与各个道路相关的LIDAR框架首先合并为单位点云,代表路段的局部高分辨率数字高程模型(DEM)。然后,将结果的DEM投射到监视摄像头捕获的被淹没的道路的图像上。到此目的,采用了摄像机校准技术来估计转换参数。相机校准方法依赖于一个包含点及其相应像素的数据集中的目标图像。生成了点的虚拟网格和相应的像素以运行相机校准函数。提到的数据集是借助激光雷达的内部相机上的投射点云而生成的,从而使我们能够识别对象和Curbsides。还采用了观点几何原则来创建DEM。投影结果显示了用于摄像机校准的技术技术的成功性能。深度估计是在外部相机记录的洪水图像上使用投影的DEM模型进行的。