Methods: This paper aims at the problem of target detection of Yunnan Xiaomila under complex background environment, in order to reduce the impact caused by the small color gradient changes between xiaomila and background and the unclear feature information, an improved PAE-YOLO model is proposed, which combines the EMA attention mechanism and DCNv3 deformable convolution is integrated into the YOLOv8 model, which improves the model ' s feature extraction capability and小米在复杂环境中的推理速度,并实现了轻巧的模型。首先,EMA注意机制与Yolov8网络中的C2F模块结合使用。C2F模块可以很好地从输入图像中提取本地特征,而EMA注意机制可以控制全局关系。两者相互补充,从而增强了模型的表达能力;同时,在骨干网络和头网络中,引入了DCNV3卷积模块,该模块可以根据输入特征映射自适应地调整采样位置,从而有助于针对不同尺度和轻量级网络的目标目标更强的功能捕获功能。它还使用深度摄像头来估计小米的姿势,同时分析和优化不同的遮挡情况。通过消融实验,模型比较实验和态度估计实验验证了所提出的方法的有效性。
摘要 卷积神经网络(CNN)在图像处理领域得到了广泛的应用,基于CNN的目标检测模型,如YOLO、SSD等,已被证明是众多应用中最先进的。CNN对计算能力和内存带宽要求极高,通常需要部署到专用的硬件平台上。FPGA在可重构性和性能功耗比方面具有很大优势,是部署CNN的合适选择。本文提出了一种基于ARM+FPGA架构的带AXI总线的可重构CNN加速器。该加速器可以接收ARM发送的配置信号,通过分时方式完成不同CNN层推理时的计算。通过结合卷积和池化操作,减少卷积层和池化层的数据移动次数,减少片外内存访问次数。将浮点数转换为16位动态定点格式,提高了计算性能。我们分别在 Xilinx ZCU102 FPGA 上为 COCO 和 VOC 2007 上的 YOLOv2 和 YOLOv2 Tiny 模型实现了所提出的架构,在 300MHz 时钟频率下峰值性能达到 289GOP。
摘要:这项研究是关于在Paddleocr中实施Yolo算法和机器学习的几个方面。提及讨论了这种技术集成以及他们在实现现实世界情景中完成任务和预期使用的方式。本文通过广泛分析文献并进行故意实验来实现这一目标。在本文中还捕获了有关算法有效性和挑战的见解。当代计算机视觉系统利用Yolo(您只看一次)和Paddleocr等有效的机器学习方法在几乎每个工业领域都扩展了。本文涉及这些算法在广泛的程序中的整合以及对实际领域的结果影响。本文对最新文献和实验分析进行了系统性阅读,以提出其用法的这一重要方面,未来的挑战及其前景。关键字:Yolo算法,Paddleocr,机器学习,对象检测,光学特征识别,深度学习。
(国家电网新区域电源公司,Xiongan新区域071600,中国)摘要:边缘设备和输电线路智能检查的组合可以满足重新的需求 -
电子邮件:murugeshankalai2610@gmail.com摘要高效的交通管理对于确保在高流量城市地区安全安全旅行至关重要。延误是由人口稠密的地区的拥塞造成的,其流动性高和商业人口会直接或间接影响公众的日常生活。该项目着重于实施动态信号控制系统,该系统利用AI驱动的技术根据实时交通密度调整流量信号正时。使用基于YOLO的对象检测和MOG2移动对象检测算法,该系统从CCTV摄像机处理视频供稿来计算车辆密度并动态优化信号流动。通过计算信号处的密度,可以在优化的时间使用时清除拥塞。该系统减轻延误,尤其是在高峰时段,可确保不需要手动干预的情况下更顺畅的城市运输。关键字:动态流量信号控制,对象检测算法 - Yolo(您只看一次),Mog2(高斯的混合物)
使用指标(例如平均平均精度(MAP,标准度量测量检测准确性)在整个交叉点(IOU)阈值从50%到95%(定义了预测和地面实现框之间的重叠),精度,召回和GPU和CPU的跨越速度。The results highlight trade-offs between model complexity and performance: smaller variants like YOLOv11-n achieved faster inference speeds (170.74 FPS on GPU and 5.86 ms on GPU), while larger models like YOLOv11-x excelled in detection accuracy and recall but at the cost of slower speeds (240.03 FPS on GPU and 4.17 ms on GPU).yolov11-s提供了最高FPS(1120.46 GPU FPS)的平衡,但准确性和回忆为中等。这些发现证明了Yolov11变体对应用程序要求的适应性,从高速实时系统到优先级检测准确性的场景。这项研究通过为yolov11变体提供详细的性能基准来推进对象检测。它提供了在不同领域中部署Yolov11的实用见解,包括物流,交付跟踪和其他需要有效且准确的对象检测的域。关键字:Yolo; Yolov11;对象检测模型;深度学习计算机视觉;神经网络;
本文提出了一种使用YOLO算法估算车速的新方法。通过分析车辆沿连续线的运动,系统可以计算车辆的移动速度以及覆盖已知距离所需的时间。与基于物理数据的传统方法不同,此方法仅使用视频数据,使其无创和可用作为现有监视摄像机。Yolo附加使用或复杂安装。与传统方法相比,这种方法侧重于诸如准确性,适用性和及时性等因素。通过成功的实验,我们证明了基于YOLO的系统可以高精度估算车辆速度,并为自动驾驶汽车控制和交通管理提供了良好的解决方案。该计划还提供了一个机会,可以通过为全球交通监控提供成本效益和大规模的解决方案来改变交通监控。
梨是最广泛消耗的水果之一,它们的质量直接影响消费者的满意度。表面缺陷,例如黑点和小斑点,是梨质量的关键指标,但由于视觉特征的相似性,检测它们仍然具有挑战性。这项研究提出了Pearsurfacedects,这是一个自我结构的数据集,包含六个类别的13,915张图像,其中有66,189个边界框注释。这些图像是使用定制的图像采集平台捕获的。在数据集上建立了27种版本的27个最先进的Yolo对象探测器的Yolo对象检测器,Yolor,Yolov5,Yolov5,Yolov6,Yolov7,Yolov7,Yolov7和Yolov9。为了进一步确保评估的全面性,还包括了三个高级非Yolo对象检测模型,T-DETR,RT-DERTV2和D-FINE。通过实验,发现yolov4-p7的检测准确性在map@0.5达到73.20%,而Yolov5n和Yolov6n也显示出极大的潜力,可以进一步提高梨表面缺陷检测的准确性。本研究中用于模型基准的梨表面缺陷检测数据集和软件程序代码都是公开的,这不仅会促进对梨表面缺陷检测和分级的未来研究,而且还为其他水果大数据和类似研究提供了宝贵的资源和参考。
摘要 - 1)数据准备:具有良好质量注释照片的数据质量至关重要。包括各种汽车型号,透视和损坏类型(划痕,凹痕,零件等)。2)多样性:数据集应代表各种背景,气候和照明条件,以改善模型概括。注释的工具:可以使用labelimg,roboflow或cvat等应用程序来加快注释过程。类不平衡:地址类别不平衡(例如,更多的较小划痕,而损坏的组件更少),以防止预测中的偏见。3)Yolo版本7和8功能:Yolov7:非常快速准确。强调非常精确的实时检测,该检测有资格用于保险和现场检查等申请。Yolov8:更加用户友好,并提供了改进的推理和培训支持。改进的模型。
摘要 — 确定脑肿瘤的范围是脑癌治疗中的一项重大挑战。主要困难在于对肿瘤大小的近似检测。磁共振成像 (MRI) 已成为一种重要的诊断工具。然而,从 MRI 扫描中手动检测脑肿瘤的边界是一项劳动密集型任务,需要广泛的专业知识。深度学习和计算机辅助检测技术已导致机器学习在这方面取得了显着进步。在本文中,我们提出了一种改进的 You Only Look Once (YOLOv8) 模型来准确检测 MRI 图像中的肿瘤。所提出的模型用检测头中的实时检测变压器 (RT-DETR) 取代了非最大抑制 (NMS) 算法。NMS 会滤除检测到的肿瘤中的冗余或重叠的边界框,但它们是手工设计和预设的。RT-DETR 删除了手工设计的组件。第二项改进是通过用鬼卷积替换正常卷积块进行的。 Ghost Convolution 降低了计算和内存成本,同时保持了高精度并实现了更快的推理速度,使其成为资源受限环境和实时应用的理想选择。第三项改进是在 YOLOv8 的主干中引入视觉变换器模块来提取情境感知特征。我们在提出的模型中使用了公开的脑肿瘤数据集。所提出的模型比原始 YOLOv8 模型表现更好,也比其他物体检测器(Faster R-CNN、Mask R-CNN、YOLO、YOLOv3、YOLOv4、YOLOv5、SSD、RetinaNet、EfficientDet 和 DETR)表现更好。所提出的模型实现了 0.91 mAP(平均精度)@0.5。
