摘要 - 1)数据准备:具有良好质量注释照片的数据质量至关重要。包括各种汽车型号,透视和损坏类型(划痕,凹痕,零件等)。2)多样性:数据集应代表各种背景,气候和照明条件,以改善模型概括。注释的工具:可以使用labelimg,roboflow或cvat等应用程序来加快注释过程。类不平衡:地址类别不平衡(例如,更多的较小划痕,而损坏的组件更少),以防止预测中的偏见。3)Yolo版本7和8功能:Yolov7:非常快速准确。强调非常精确的实时检测,该检测有资格用于保险和现场检查等申请。Yolov8:更加用户友好,并提供了改进的推理和培训支持。改进的模型。
简单总结:在本研究中,我们使用大量脑肿瘤图像解决了 MRI 扫描中脑肿瘤检测这一具有挑战性的任务。我们证明,通过迁移学习对最先进的 YOLOv7 模型进行微调可显著提高其在检测神经胶质瘤、脑膜瘤和垂体脑瘤方面的表现。我们提出的深度学习模型显示出令人鼓舞的结果,可以准确识别 MRI 图像中脑肿瘤的存在和精确位置。与标准技术相比,所提出的方法实现了更高的准确度,在我们的分析中准确度高达 99.5%。然而,我们承认,额外的调查和测试对于确保我们检测小肿瘤的方法的有效性至关重要。小肿瘤识别的复杂性需要对脑肿瘤识别进行持续研究并不断改进我们的检测系统。通过这条途径,我们旨在提高患者和医务人员在对抗脑癌的艰难斗争中的诊断能力。
摘要:有关左心的解剖结构的知识,特定于中庭(LA)和心室(即心内膜外 - 伏托(Vendo)和表心外 - lvepi)对于评估心脏功能是必不可少的。超声心动图的心脏结构的手动分割是基线参考,但结果是用户依赖性且耗时的。为了支持临床实践,本文提出了一种新的深入学习(DL)工具,用于从超声心动图图像中分割左心的解剖结构。特别是设计为两个卷积神经网络,Yolov7算法和一个U-NET的组合,其目的是将超声心动图像自动分为Lvendo,Lvepi和La。基于DL的工具接受了对心脏习得的培训和测试。对于每位患者,临床医生收购并注释了末端和末端末端的顶部两次和四室视图。在全球范围内,我们的基于DL的工具能够分割Lvendo,Lvepi和La,提供了等于92.63%,85.59%和87.57%的骰子相似性系数。总而言之,所提出的基于DL的工具被证明是可靠的,可以自动分割左心的解剖结构并支持心脏病临床实践。
摘要 - 通过在密集的互连网络中启用低延迟的大数据处理,该网络构成了车辆,侵蚀,行人,行人和云。自动驾驶汽车非常依赖机器学习(ML),并且可以从边缘生成的大量感官数据中受益,这要求采取措施调和模型培训,并保留敏感用户数据的隐私。联合学习(FL)是一种有希望的解决方案,可以在车辆网络中培训复杂的ML模型,同时保护道路使用者的隐私并减轻沟通开销。本文研究了尖端Yolov7模型的联合优化,以解决数据异质性,包括不平衡性,概念漂移和标签分布偏向的实时对象检测。为此,我们介绍了FedPylot,这是一种基于MPI的轻质原型,以模拟高性能计算(HPC)系统的联合对象检测实验,在此使用混合加密,我们可以在其中维护服务器 - 客户层通信。我们的研究因素,准确性,沟通成本和推理速度,从而为自动驾驶汽车面临的挑战提供了平衡的方法。我们证明了FL在IOV中的适用性的有希望的结果,并希望FedPylot将为将来研究联合实时对象检测提供基础。源代码可在https://github.com/cyprienquemeneur/fedpylot上获得。
1人工智能(AI),机器学习(ML),深度学习(DL),计算机视觉(CV)和对象检测之间的关系。。。。。。。。。。。。4 2通过乘以网格单元中存在的ob ject的概率以及在预测和地面真相边界框之间与联合(iou)相交的概率来计算YOLO中的信心评分。。。。。。。。。。。。。。。。。。。。。。5 3边界框预测图。。。。。。。。。。。。。。。。。。。。。。。。。。。5 4 iou通用公式。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。6 5 iou二进制公式(tp = true straine,fn = false n = false and and fp =假阳性。)6 6 YOLO架构。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。6 7边界盒坐标损耗包含对象的网格单元。。。。。。。。。。。7 8包含对象的网格单元的边界框宽度和高度损失。。。。。。。。7 9包含对象的网格单元的置信分数损失。。。。。。。。。。。。。。。。7 10不包含对象的网格单元的置信分数损失。。。。。。。。。。。。。。7 11分类损失在网格细胞中存在对象。。。。。。。。。。。。。。。。。。。7 12目录结构,用于组织食物图像及其相应的标签,用于在Yolo模型中进行训练,验证和测试。。。。。。。。。。。。。。。。。。14 13各种食物类别的yolov5对象检测的精确构态曲线。。17 14 F1分数曲线Yolov5对象在各种食物类别上检测。。。。。。。。。17 15 Yolov5损失曲线和关键指标(精度,召回和地图)在时期。。。18 16混淆矩阵说明了Yolov5模型在分类不同的食物类别中的性能。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。18 17各种食物类别的yolov6对象检测的精确构度曲线。19 18 F1分数曲线Yolov6对象检测各种食物类别。。。。。19 19 Yolov6损失曲线和关键指标(精度,回忆和地图)。。。20 20混乱矩阵说明了Yolov6模型在分类不同的食物类别中的性能。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。20 21各种食物类别的yolov7对象检测的精确构度曲线。。21 22 22 F1分数曲线在各种食物类别上检测。。。。。。。。。21 23 Yolov7损失曲线和关键指标(精度,召回和映射)在时期。。。。22 24混乱矩阵说明了Yolov8模型在分类不同的食物类别中的性能。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。22 25在各种食物类别上用于yolov8对象检测的精确构度曲线。。23 26 F1在各种食物类别上检测Yolov8对象检测的得分曲线。。。。。。。。。23 27 Yolov8损失曲线和关键指标(精度,召回和映射)。。。。24 28混乱矩阵说明了Yolov8模型在分类不同的食物类别中的性能。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。24 29 YOLO模型的比较:检测速度和训练时间。。。。。。。。。。26 30跨关键评估大会的YOLO模型的全面绩效比较。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。26 31用户帐户注册提示用户输入其个人信息和健康数据以进行个性化卡路里跟踪。。。。。。。。。。。。。。。。。。。。。。29 32登录页面。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。30 33带有输入接口的主页,具有使用设备相机捕获图像或从设备存储中上传现有图像的选项。。。。。。。。30 34卡路里跟踪页面,显示每日卡路里限制,当天消耗卡路里,详细的食物日志以及每月的日历,突出显示每日卡路里的摄入量。。。。31
准确的工具跟踪对于计算机辅助干预的成功至关重要。以前的努力通常会严格地对工具轨迹进行建模,从而俯瞰外科手术程序的动态性质,尤其是跟踪诸如身体外和相机外视图之类的场景。在解决此限制时,新的CholectRack20数据集提供了详细的标签,以三个角度说明多个工具轨迹:(1)术中,(2)体内和(3)可见性,代表不同类型的工具轨迹时间。这些细粒标签可增强跟踪灵活性,但也提高了任务复杂性。由于高视觉相似性,尤其是在同一类别的工具中,遮挡或重新插入身体后的工具仍然具有挑战性。这项工作认识到工具操作员在区分工具轨道实例中的关键作用,尤其是属于同一工具类别的工具轨道实例。但是,在手术视频中未明确捕获操作员的信息。因此,我们提出了Surgitrack,这是一种利用Yolov7进行精确工具检测的新型深度学习方法,并采用了注意机制来对工具的起源方向进行建模,作为其操作员的代理,以重新识别工具。为了处理各种工具轨迹的观点,Surgitrack采用了协调的两分匹配图,最大程度地减少冲突并确保准确的工具身份关联。cholectrack20的实验结果证明了外科手术的有效性,优于实时推理能力的最先进方法和最先进的方法。这项工作为手术工具跟踪设定了新的标准,为在微创手术中提供了更适合适应性和精确的帮助。
摘要:水下图像遭受颜色失真和细节的损失,这严重影响了水下机器人的视觉感知能力。为了提高检测准确性,提出了一个多任务学习框架,以基于对比度学习的水下图像增强和对象检测提出了多任务学习框架,这不仅会产生视觉上友好的图像,还可以提高对象检测精度,从而实现对象检测任务的图像增强图像。为了解决不清楚目标纹理特征的问题,用于检测任务的区域生成模块用于构建用于对比性学习的正面和负面图像块,以确保目标区域更接近特征空间中的原始图像。此外,检测到的梯度信息用于指导图像增强方向,有益于目标检测。此外,提出了一种基于循环生成对抗网络的图像翻译方法来学习和保留图像增强的清晰图像特征,从而消除了对配对的水下图像的需求并减少了数据要求。最后,在EUVP,U45和UIEB数据集上对增强算法进行了验证,并且在RUOD,URPC2020和RUIE数据集上验证了检测算法。实验结果表明,所提出的算法可以在主观视觉中有效纠正颜色失真,同时保留原始图像和目标的结构纹理。就客观指标而言,峰值信噪比达到24.57 dB,结构相似性达到0.88。在更快的R-CNN(基于区域的卷积神经网络)和Yolov7(您只看一次,版本7)算法后,检测精度平均提高了2%。关键字:水下图像增强;对比学习;循环生成对抗网络;对象检测
车辆轨迹数据拥有有价值的信息,用于高级驾驶开发和交通分析。虽然无人机(UAV)提供了更广泛的视角,但视频框架中小规模车辆的检测仍然遭受低精度的折磨,甚至错过了。本研究提出了一个全面的技术框架,以进行准确的车辆轨迹提取,包括六个主要组成部分:视频稳定,车辆检测,车辆跟踪,车道标记检测,坐标转换和数据denosing。为了减轻视频抖动,使用了冲浪和绒布稳定算法。仅一旦使用X(Yolox)进行多目标车辆检测,就只能看一下一个增强的检测器,并在检测头中包含一个浅特征提取模块,以提高低级和小规模特征的性能。有效的通道注意力(ECA)模块在颈部之前集成,以进一步提高表现力。此外,在输入阶段还应用了滑动窗口推理方法,以防止压缩高分辨率的视频帧。Savitzky-Golay过滤器用于轨迹降低。验证结果表明,改进的Yolox的平均平均精度(地图)为88.7%,比原模型的增强5.6%。与Advanced Yolov7和Yolov8模型相比,所提出的方法分别将MAP@50增加到7.63%和1.07%。此外,已经开发了车辆轨迹数据集,并且可以在www.cqskyeyex.com上公开访问。大多数跟踪(MT)轨迹度量达到98.9%,单侧定位的根平方误差约为0.05 m。这些结果证实,所提出的框架是交通研究中高准确性车辆轨迹数据收集的有效工具。
摘要:各种加载条件的耦合效应可能会导致偏转,定居点甚至在服务桥梁的失败。不幸的是,尽管它是最关键的负载之一,但通过桥梁监控系统目前为可持续操作,很难实时捕获行驶车辆的加载条件。要充分了解桥梁的状态,必须在动态的交通环境中获得瞬时车辆负载分布。尽管有一些可以识别超重车辆的方法,但捕获的车辆相关信息却分散且不完整,因此无法支持有效的桥梁结构性健康监测(BSHM)。本研究提出了一种基于视觉的非接触式方法,用于识别车辆负载,以实时监测桥梁结构健康。该提出的方法由四个主要步骤组成:(1)使用Yolov7为车辆建立双对象检测模型,(2)在桥面上开发一个混合坐标转换模型,(3)为移动车辆的实时轨迹监视的多对象跟踪模型,以及(4)建立级别融资模型的车辆和位置,并为车辆的负载和位置确定型号和位置。所提出的方法有效地可视化3D时空车辆载荷分布,速度低30fps。结果表明,混合坐标转换可确保车辆位置误差在1 m以内,与传统方法相比降低了5倍。轴距是通过双对象检测和转换来计算的,是车辆位置校正的主要参考。与传感器测得的速度相比,保留了车辆的轨迹和实时速度,平滑速度误差均低于5.7%。作者设想所提出的方法可以构成一种新的方法来进行实时的服务桥梁。
