摘要 - 该研究旨在实施能够自主检测绵羊目标并在2D占用图上代表它们的系统,其最终目标是促进在UXV平台上自主牧羊。本文详细介绍了Blackboard System的开发,Blackboard System是一种用于自动目标检测和映射的软件解决方案。使用Python和C编程语言,Blackboard系统将单眼深度感测与自主目标检测,以产生全面的深度和目标图。这些地图是合并的,以产生从高架相机的角度捕获的操作区域的详细的2D鸟视图。黑板系统的独特功能是其模块化框架,它允许无缝更新或更换其深度传感和目标检测模块。
当前的视频异常检测(VAD)方法本质上仅限于封闭设置的设置,并且可能在开放世界应用程序中遇到困难,在培训期间,测试数据中可能存在异常类别。最近的一些研究试图解决更现实的开放式VAD,该研究旨在解散视为异常和正常视频的看不见异常。但是,尽管这种能力对于构建更明智的视频监视系统至关重要,但这种设置着重于预测框架异常得分,没有识别异常类别的能力。本文进一步迈出了一步,并探讨了开放词汇视频异常检测(OVVAD),我们的目的是利用预训练的大型模型来检测和cate-可见和看不见的异常。为此,我们提出了一个模型,该模型将OVVAD分解为两个相互构成的任务 - 类不足的检测和特定于类的分类 - 并共同优化了这两个任务。特别是,我们设计了一个语义知识注入模块,以从大语言模型中引入语义知识以进行检测任务,并设计一种新型的异常合成模块,以在大型视觉生成模型的帮助下生成伪异常视频,以实现分类任务。这些语义知识和综合异常大大扩展了我们模型在检测和分类各种可见和看不见的异常方面的能力。对三个广泛使用的基准测试的实验实验实现了我们的模型在OVVAD任务上实现了最新的性能。
对象检测在各种自主系统中至关重要,例如监视,自动驾驶和驾驶员的稳定性,通过识别行人,车辆,交通信号灯和标志来确保安全。然而,诸如雪,雾和雨等不利天气条件构成了挑战,具有检测准确性,冒险发生事故和大坝。这清楚地表明了在所有天气条件下都起作用的强大观察检测解决方案的必要性。我们采用了三种策略来增强不利天气中的基于深度学习的对象检测:对全球全天候图像进行培训,对图像进行培训,并具有合成的增强天气噪声,并将对象的变形与不利天气图像denosistighting进行整合。使用分析方法,GAN网络和样式转移网络产生合成天气噪声。我们使用BDD100K数据集中的真实世界全天候图像和用于评估未见现实世界的不利天气图像的评估,通过训练对象进行分割模型比较了这些策略的性能。通过降级现实世界的不利天气图像以及对物体检测的结果和原始嘈杂图像的结果进行了评估,从而评估了不利天气。我们发现,使用全天候现实世界图像训练的模型表现最佳,而对对象检测进行对象检测的策略则表现最差。
332013,Choi和Al。 2013,Kim和Al。 2013,Tian和Al。 2013,2013,Ajmal and Al。 2014,宝贝和al。 2014年,Cycuss和Al。 2014年,Lazarus和Banias 2014,Liu and Al。 2014,Pohuba和Al。 2014年,张和Al。 2014,2015,2015,JHI和AL。 2015,2015,Sharma和Al。 2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2013,Choi和Al。2013,Kim和Al。 2013,Tian和Al。 2013,2013,Ajmal and Al。 2014,宝贝和al。 2014年,Cycuss和Al。 2014年,Lazarus和Banias 2014,Liu and Al。 2014,Pohuba和Al。 2014年,张和Al。 2014,2015,2015,JHI和AL。 2015,2015,Sharma和Al。 2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2013,Kim和Al。2013,Tian和Al。 2013,2013,Ajmal and Al。 2014,宝贝和al。 2014年,Cycuss和Al。 2014年,Lazarus和Banias 2014,Liu and Al。 2014,Pohuba和Al。 2014年,张和Al。 2014,2015,2015,JHI和AL。 2015,2015,Sharma和Al。 2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2013,Tian和Al。2013,2013,Ajmal and Al。2014,宝贝和al。2014年,Cycuss和Al。 2014年,Lazarus和Banias 2014,Liu and Al。 2014,Pohuba和Al。 2014年,张和Al。 2014,2015,2015,JHI和AL。 2015,2015,Sharma和Al。 2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2014年,Cycuss和Al。2014年,Lazarus和Banias 2014,Liu and Al。 2014,Pohuba和Al。 2014年,张和Al。 2014,2015,2015,JHI和AL。 2015,2015,Sharma和Al。 2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2014年,Lazarus和Banias 2014,Liu and Al。2014,Pohuba和Al。 2014年,张和Al。 2014,2015,2015,JHI和AL。 2015,2015,Sharma和Al。 2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2014,Pohuba和Al。2014年,张和Al。 2014,2015,2015,JHI和AL。 2015,2015,Sharma和Al。 2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2014年,张和Al。2014,2015,2015,JHI和AL。2015,2015,Sharma和Al。 2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2015,2015,Sharma和Al。2015,SOH和AL。 2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2015,SOH和AL。2015,Tian和Al。 2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2015,Tian和Al。2015,Wang和Al。 2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2015,Wang和Al。2015,明和AL。 2016,Strilețchi和其他。 2016,Agrawal和Sharma 2017,Jain and Al。 2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2015,明和AL。2016,Strilețchi和其他。2016,Agrawal和Sharma 2017,Jain and Al。2017,2017,Carnalim 2017,Luo和Al。 2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2017,2017,Carnalim 2017,Luo和Al。2017,Mirza和Al。 2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2017,Mirza和Al。2017,Mišić和Al。 2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2017,Mišić和Al。2017,Schneider和Al。 2017 2017,2017,Carnalim 2018,Roopam and Singh 2018]。2017,Schneider和Al。2017,2017,Carnalim 2018,Roopam and Singh 2018]。
可穿戴机器人上肢矫形器 (ULO) 是辅助或增强用户上肢功能的有前途的工具。虽然这些设备的功能不断增加,但对用户控制可用自由度的意图的稳健和可靠检测仍然是一项重大挑战,也是接受的障碍。作为设备和用户之间的信息接口,意图检测策略 (IDS) 对整个设备的可用性具有至关重要的影响。然而,这方面及其对设备可用性的影响很少根据 ULO 的使用环境进行评估。进行了范围界定文献综述,以确定已通过人类参与者评估的应用于 ULO 的非侵入式 IDS,特别关注与功能和可用性相关的评估方法和发现及其在日常生活中特定使用环境的适用性。共确定了 93 项研究,描述了 29 种不同的 IDS,并根据四级分类方案进行了总结和分类。与所述 IDS 相关的主要用户输入信号是肌电图 (35.6%),其次是手动触发器,例如按钮、触摸屏或操纵杆 (16.7%),以及上肢节段的残余运动产生的等长力 (15.1%)。我们确定并讨论了 IDS 在特定使用环境中的优缺点,并强调了在选择最佳 IDS 时性能和复杂性之间的权衡。通过调查评估实践来研究 IDS 的可用性,纳入的研究表明,主要评估了与有效性或效率相关的客观和定量的可用性属性。此外,它强调了缺乏系统的方法来确定 IDS 的可用性是否足够高以适合用于日常生活应用。这项工作强调了针对用户和应用程序选择和评估用于 ULO 的非侵入式 IDS 的重要性。对于该领域的技术开发人员,它进一步提供了有关IDS的选择过程以及相应评估协议的设计的建议。
摘要 — 寻找合适的停车位是一个具有挑战性的问题,尤其是在大城市。随着汽车保有量的增加,停车位变得越来越稀缺。对这些停车位的需求不断增长,再加上有限的停车位,导致了供需失衡。缺乏足够的停车管理系统导致许多街道上到处都是非法停放的汽车。需要一个可扩展、可靠、高效的停车管理系统来解决这个问题。基于深度学习的计算机视觉技术已经成为解决此类问题的有希望的解决方案。这些技术对图像识别和处理领域产生了巨大的影响。它们还为车辆跟踪领域的进一步应用提供了巨大的潜力。因此,它们可以用来检测停车位。
摘要。我们的生活现在围绕社会交流,并且由于阿拉伯文本非常复杂并且包含了许多方言,因此在阿拉伯社交媒体上很难识别出令人反感的语言。本文研究了机器学习模型的实施。使用了选择的分类器,包括决策树,支持向量机,随机森林和逻辑回归。在实验中使用了包含4505个推文的“ ARCYBC”数据集,以评估机器学习模型的性能。根据实验的结果,使用更多运行可以增强机器学习模型的性能,尤其是在精度和召回率方面。随着更多的运行,决策树(DT)和随机森林(RF)分类器显示出更好的回忆和精度,但是DT分类器显示出更好的精度。
许多基于机器学习的轴突追踪方法依赖于带有分割标签的图像数据集。这需要领域专家的手动注释,这需要大量劳动力,并且不适用于以细胞或亚细胞分辨率对半球或整个脑组织进行大规模脑映射。此外,保留轴突结构拓扑对于理解神经连接和大脑功能至关重要。自监督学习 (SSL) 是一种机器学习框架,允许模型在未注释的数据上学习辅助任务,以帮助完成监督目标任务。在这项工作中,我们提出了一种新颖的 SSL 辅助任务,即为面向拓扑的轴突分割和中心线检测的目标任务重建边缘检测器。我们使用小鼠大脑数据集对三个不同的 SSL 任务进行了 3D U-Nets 预训练:我们提出的任务、预测排列切片的顺序和玩魔方。然后,我们在不同的小鼠大脑数据集上评估了这些 U-Nets 和基线模型。在所有实验中,针对我们提出的任务进行预训练的 U-Net 分别将基线的分割、拓扑保留和中心线检测提高了 5.03%、4.65% 和 5.41%。相比之下,切片排列和魔方预训练的 U-Net 并没有比基线有持续的改进。
水是所有人类活动的必要组成部分。根据联合国世界水评估计划,每天,200万吨污水,制造和农业废物被排放到世界水中。由于人口需求和减少清洁水供应以及可用的水污染管理机制;迫切需要使用计算方法智能管理可用的水。本文提出了人工神经网络,特别是卷积神经网络(CNN),用于自动化水杂质检测。为了完善模型,使用管道中的浑浊水的图片来检测事件。深度学习的算法通过4220张图像的数据集进行了大量培训后达到96.3%的准确性,反映了各种污染的污染。这表明该模型可用于水系统污染检测。