摘要 - 1)数据准备:具有良好质量注释照片的数据质量至关重要。包括各种汽车型号,透视和损坏类型(划痕,凹痕,零件等)。2)多样性:数据集应代表各种背景,气候和照明条件,以改善模型概括。注释的工具:可以使用labelimg,roboflow或cvat等应用程序来加快注释过程。类不平衡:地址类别不平衡(例如,更多的较小划痕,而损坏的组件更少),以防止预测中的偏见。3)Yolo版本7和8功能:Yolov7:非常快速准确。强调非常精确的实时检测,该检测有资格用于保险和现场检查等申请。Yolov8:更加用户友好,并提供了改进的推理和培训支持。改进的模型。
摘要:对象检测是计算机视觉系统中的一项重要任务,包括多种应用程序,包括但不限于自动驾驶汽车导航和监视。尽管在诸如Yolo之类的对象检测模型中取得了很大的进步,但假阳性检测的问题仍然是一个令人担忧的问题,从而导致错误分类并降低这些系统的可靠性。这项研究努力提出一种创新方法,旨在通过将变量自动编码器(VAE)作为Yolo框架中的过滤机制来提高对象检测精度。这种整合旨在纠正假阳性检测的问题,最终促进了明显的检测精度增强,并增强了对象检测系统的整体可靠性。
摘要 - 随着老龄化人口的增长,对阿尔茨海默氏病(AD)和其他形式的痴呆症的诊断和早期发现变得越来越重要。近年来,深度学习,尤其是您只看一次(YOLO)体系结构,它已成为神经成像和机器学习领域的有前途的工具,用于AD诊断。这项全面的综述调查了Yolo在AD诊断和分类中的应用最新进展。我们仔细检查了五篇研究论文,这些研究论文探讨了Yolo的潜力,深入研究了方法,数据集和提出的结果。我们的评论揭示了使用Yolo在AD诊断中取得了显着的进步,同时还强调了挑战,例如数据稀缺和缺乏研究。本文提供了有关Yolo在早期发现AD及其改变该领域临床实践的潜力中不断增长的作用的见解。本评论旨在激发进一步的研究和创新,以增强AD诊断,并最终是患者护理。
摘要。本研究的重点是分析和探索您只看一次(YOLO)算法。具体来说,本文分析了对象检测中三个版本(Yolov1,Yolov5和Yolov8)的演变和性能。研究开始于详细介绍对象检测的基本概念以及该领域常用的数据集。然后,它深入研究了与每个Yolo版本相关的特定体系结构和实验结果。分析表明,尽管Yolov8引入了高级功能和改进,但诸如Yolov5之类的早期版本在某些条件下可能会提供卓越的稳定性和性能,尤其是在特定任务(例如汽车检测)中。讨论强调了批处理大小等因素对模型性能的重要影响,这表明对这些参数进行微调可以优化特定应用的算法。该研究得出的结论是,Yolo发展的未来在于探索和完善不同的变体,尤其是Yolov8的变体,以更好地满足各种要求。通过专注于五个不同的Yolov8变体,该研究旨在增强Yolo框架在各种物体检测挑战中的适应性和有效性,从而对这项技术的持续发展产生宝贵的见解。
摘要 - 在农业工业化的目的中,对通常栽培作物的作物收获过程的优化至关重要。如今,机器视觉的利用使农作物的自动鉴定可以提高收获效率,但仍然存在挑战。 本研究提出了一个新的框架,该框架结合了两个单独的卷积神经网络(CNN)的架构,以便同时完成模拟环境内的作物检测和收获(机器人操纵)的任务。 模拟环境中的作物图像受到随机旋转,裁剪,亮度和对比度调整,以创建数据集生成的增强图像。 只有一旦使用传统的矩形边界框(R- Bbox)来进行农作物定位,您只能看一下算法框架。 随后提出的方法通过视觉几何组模型利用了获得的图像数据,以揭示机器人操纵的抓地位置。 索引术语 - 深度学习,Yolov3密集,机器人抓紧。如今,机器视觉的利用使农作物的自动鉴定可以提高收获效率,但仍然存在挑战。本研究提出了一个新的框架,该框架结合了两个单独的卷积神经网络(CNN)的架构,以便同时完成模拟环境内的作物检测和收获(机器人操纵)的任务。模拟环境中的作物图像受到随机旋转,裁剪,亮度和对比度调整,以创建数据集生成的增强图像。只有一旦使用传统的矩形边界框(R- Bbox)来进行农作物定位,您只能看一下算法框架。随后提出的方法通过视觉几何组模型利用了获得的图像数据,以揭示机器人操纵的抓地位置。索引术语 - 深度学习,Yolov3密集,机器人抓紧。
对于一系列医学分析应用,脑肿瘤定位和从磁共振成像 (MRI) 中分割脑肿瘤是一项具有挑战性但至关重要的工作。许多最近的研究包括四种模式:即 T1、T1c、T2 和 FLAIR,这是因为每个肿瘤致病区域都可以通过每种脑成像模式进行详细检查。尽管 BRATS 2018 数据集给出了令人印象深刻的分割结果,但结果仍然更复杂,需要更多的测试和更多的训练。这就是为什么本文建议在整幅图像之外的一小部分图像上操作预处理策略,因为这样才能创建一个有效且灵活的脑肿瘤分割系统。在第一阶段,使用不同的分类器(如决策树、SVM、KNN 等)开发集成分类模型,使用小部分的策略将图像分类为肿瘤和非肿瘤类,可以完全解决过度拟合问题并减少使用 inceptionv3 CNN 特征的 YOLO 对象检测器模型中的处理时间。第二阶段是推荐一种高效且基本的级联 CNN (C-ConvNet/C-CNN),因为我们处理每个切片中脑图像的一小部分。级联卷积神经网络模型以两种独立的方式提取可学习的特征。在 BRATS 2018、BRATS 2019 和 BRATS 2020 数据集上,对所提出的肿瘤定位框架进行了广泛的实验任务。三个数据集的 IoU 得分分别为 97%、98% 和 100%。本文详细讨论并介绍了其他定性评估和定量评估。
许多技术和系统,包括自动驾驶汽车,监视系统和机器人应用,都依赖能力来准确检测行人以确保其安全性。随着对实时对象检测的需求不断上升,许多研究人员致力于开发有效且值得信赖的算法以供行人识别。通过将学习复杂性意识到的级联反应与增强的级联集成,您只看一次(YOLO)算法,该论文提供了一个实时系统,用于识别项目和行人。使用Karlsruhe技术研究所和丰田技术学院(KITTI)行人数据集评估了所提出的方法的性能。优先考虑速度和准确性,增强的Yolo算法的表现优于其基线。在Kitti行人数据集上,建议的技术在现实世界中的有效性强调了其有效性。此外,复杂性感知的学习级联反应为简化的检测模型做出了贡献,而不会损害性能。当应用于需要对象和个人实时识别的方案时,提出的方法会始终提供有希望的结果。
摘要 - 物理对对象 - 探测攻击对自动驾驶系统(ADS)引起了安全关注,并且是其广泛采用的重要障碍。为了增强广告解决此类问题的能力,我们旨在提出一个人类协作框架,以使人类进入循环以减轻攻击。在这项WIP工作中,我们研究了Yolo系列(Yolov5和Yolov8)中两个对象探测器的表现,以针对Carla模拟器中不同驾驶环境中的三种物理对对象弹性攻击。使用静态图像,我们发现Yolov8在攻击检测中通常超过了Yolov5,但在特定情况下仍然容易受到某些攻击的影响。研究结果表明,当考虑到系统级特征时,没有任何攻击在动态测试中取得了很高的攻击成功率。尽管如此,对于每种攻击,这种检测结果在不同位置的不同位置有所不同。总的来说,这些结果表明,自主驾驶中的感知(与手动驾驶中的人类感知相同)也可能依赖于上下文。此外,我们的结果揭示了人类驾驶员预期的制动距离处的对象检测故障,这表明有必要让人类驾驶员参与未来的评估过程。
在过去的几年中,Yolo系列模型已成为对象检测领域中的主要方法之一。许多研究通过修改其体系结构,提高数据质量并开发新的损失功能来提出这些基线模型。但是,当前模型仍然在处理特征图中表现出缺陷,例如俯瞰跨尺度特征的融合以及缺乏动态功能调整功能的静态融合方法。为了解决这些问题,本文介绍了E ffi cient细粒度的多尺度动态选择模块(FMDS模块),该模块采用了更具EFF的动态功能选择和融合方法,可在细粒的多尺度特征图中进行,从而显着增强了中小型,中等,中等和大型环境的检测精度。此外,本文提出了一个自适应门控的多分支焦点融合模块(AGMF模块),该模块利用多个平行分支执行由封闭式单位分支,FMDS模块分支和三重线分支进行互补的融合。这种方法进一步增强了特征融合的全面,多样性和完整性。本文将FMDS模块AGMF模块集成到Yolov9中,以开发一种名为FA-Yolo的新型对象检测模型。广泛的实验结果表明,在相同的实验条件下,FA-YOLO在Pascal VOC 2007数据集上达到了66.1%的平均平均精度(MAP),比Yolov9的65.1%提高了1.0%。此外,与Yolov9的42.1%,51.5%和69.9%相比,小型,中和大型目标的FA-YOLO的检测准确性分别为44.1%,54.6%和70.8%。