在输出图像中分别k Depthise(I,J,K)和k点(i,j,k)代表可分开的卷积的操作。
训练深神经网络被认为是基本要求之一,因为关于图像的数量和质量和标记精度可以对训练有素的网络的产出准确性产生很大的影响。本文中介绍的数据集包含从在线伊朗汽车销售公司下载的3000张图像,包括Divar和Bama网站,这些图像在三个类中手动标记:汽车,卡车和巴士。标签的形式为5765个边界框,它以高精度来表征图像中的车辆,最终导致了可用于公共使用的独特数据集。在此数据集上训练的Yolov8S算法,对于验证图像,获得了令人印象深刻的最终精度为91.7%。在50%阈值下的平均平均精度(MAP)记录为92.6%。此精度被认为适用于城市车辆检测网络。值得注意的是,当比较了Yolov8S算法与该数据集训练的算法与使用可可数据集训练的Yolov8S时,MAP的MAP率在50%时增加了10%,地图范围为50%至95%。
摘要。目的:这项研究的目的是使用Yolov8n,Yolov8s和Yolov8M在各种图像条件下检测车辆类型,并进行增强。方法:本研究利用黎明数据集上的Yolov8方法。该方法涉及使用预训练的卷积神经网络(CNN)处理图像并输出所检测到的对象的边界框和类。此外,还应用了数据增强来提高模型从不同方向和观点识别车辆的能力。结果:测试结果的MAP值如下:没有数据扩展,Yolov8n达到了约58%,Yolov8S得分左右约为68.5%,而Yolov8M的MAP值约为68.9%。然而,在应用水平翻转数据扩大后,Yolov8n的地图增加到约60.9%,Yolov8s提高到约62%,而Yolov8M的地图卓越,地图约为71.2%。使用水平翻转数据增强提高了所有三种Yolov8模型的性能。Yolov8M模型达到了71.2%的最高地图值,表明其在应用水平翻转增强后检测物体的有效性很高。新颖性:这项研究通过采用最新版本的Yolo,Yolov8来介绍新颖性,并将其与Yolov8n,Yolov8s和Yolov8M进行比较。使用数据增强技术(例如水平翻转)增加数据变化的使用也很新颖,在扩展数据集并提高模型识别对象的能力方面。关键字:CNN,数据增强,黎明,对象检测,Yolov8于2023年11月收到 /修订2024年2月 / 2024年2月接受此工作,该工作已在创意共享署名4.0国际许可下获得许可。
由于缺乏全面的数据集和缺陷类型的多样性,自动检测增材制造的 Ti6Al4V 材料中的微观结构缺陷面临巨大挑战。本研究介绍了一种应对这些挑战的新方法,即开发专门针对扫描电子显微镜 (SEM) 图像的微观结构缺陷数据集 (MDD)。我们使用此数据集训练和评估了多个 YOLOv8 模型(YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l 和 YOLOv8x),以评估它们在检测各种缺陷方面的有效性。主要结果表明,YOLOv8m 在精度和召回率之间实现了平衡,使其适用于可靠地识别各种缺陷类型中的缺陷。另一方面,YOLOv8s 在效率和速度方面表现出色,尤其是在检测“孔隙”缺陷方面。该研究还强调了 YOLOv8n 在检测特定缺陷类型方面的局限性以及与 YOLOv8l 和 YOLOv8x 相关的计算挑战。我们的方法和发现有助于科学地理解增材制造中的自动缺陷检测。MDD 的开发和 YOLOv8 模型的比较评估通过提供检测微结构缺陷的强大框架来推进知识水平。未来的研究应侧重于扩展数据集和探索先进的 AI 技术,以提高检测准确性和模型泛化能力。
摘要 无人机图像中的车辆检测和识别是一个复杂的问题,已用于不同的安全目的。这些图像的主要挑战是从斜角捕获的,并带来了一些挑战,例如非均匀照明效果、退化、模糊、遮挡、能见度丧失等。此外,天气条件在引起安全问题方面起着至关重要的作用,并为收集的数据增加了另一个高水平的挑战。在过去的几十年里,人们采用了各种技术来检测和跟踪不同天气条件下的车辆。然而,由于缺乏可用数据,在大雪中检测车辆仍处于早期阶段。此外,还没有使用无人机 (UAV) 拍摄的真实图像在雪天检测车辆的研究。本研究旨在通过向科学界提供北欧地区不同环境和各种积雪条件下无人机拍摄的车辆数据来解决这一空白。数据涵盖不同的恶劣天气条件,如阴天降雪、低光照和低对比度条件、积雪不均、高亮度、阳光、新雪,以及温度远低于-0摄氏度。该研究还评估了常用物体检测方法(如 YOLOv8s、YOLOv5s 和 Faster RCNN)的性能。此外,还探索了数据增强技术,以及那些增强检测器性能的技术
摘要 无人机图像中的车辆检测和识别是一个复杂的问题,已用于不同的安全目的。这些图像的主要挑战是从斜角捕获的,并带来了一些挑战,例如不均匀的照明效果、退化、模糊、遮挡、能见度丧失等。此外,天气条件在引起安全问题方面起着至关重要的作用,并为收集的数据增加了另一个高水平的挑战。在过去的几十年里,人们采用了各种技术来检测和跟踪不同天气条件下的车辆。然而,由于缺乏可用数据,在大雪中检测车辆仍处于早期阶段。此外,还没有使用无人机 (UAV) 拍摄的真实图像在雪天检测车辆的研究。本研究旨在通过向科学界提供北欧地区不同环境和不同积雪条件下无人机拍摄的车辆数据来解决这一空白。数据涵盖不同的恶劣天气条件,如阴天降雪、低光照和低对比度条件、积雪不均、高亮度、阳光、新雪,以及温度远低于-0摄氏度。该研究还评估了常用物体检测方法(如 YOLOv8s、YOLOv5s 和 Faster RCNN)的性能。此外,还探索了数据增强技术,并提出了在此类场景中增强检测器性能的技术。代码和数据集将在 https://nvd.ltu-ai.dev 上提供
摘要:SLAM是一种至关重要的技术,用于实现无人车辆的自主导航和定位。传统的视觉同时本地化和映射算法建立在静态场景的假设上,从而忽略了动态目标在现实世界环境中的影响。来自动态目标的干扰可以显着降低系统的定位精度,甚至导致跟踪故障。为了解决这些问题,我们提出了一个名为S-Slam的动态视觉大满贯系统,该系统基于“同样和语义信息提取”。最初,引入了词汇描述符来描述定向的快速特征点,从而提高了特征点匹配的精度和速度。随后,fasternet替换了Yolov8的骨干网络以加快语义信息提取。通过使用DBSCAN聚类对象检测的结果,获得了更精致的语义掩码。最后,通过利用语义面膜和表现约束,可以辨别和消除动态特征点,从而仅利用仅利用静态特征点进行姿势估计,并构建了不包括动态目标的密集3D地图。在TUM RGB-D数据集和现实世界情景上进行了实验评估,并证明了拟议算法在滤除场景中的动态目标方面的有效性。与Orb-Slam3相比,TUM RGB-D数据集的本地化准确性提高了95.53%。针对经典动态大满贯系统的比较分析进一步证实了通过lam的定位准确性,地图可读性和鲁棒性的提高。
