•t应满足以下条件 - t(r)是单一的值,并且在r处在[0,1] - t(r)范围内的情况下增加范围内也有所不同[0,1] 1. 1.第一个要求是可逆转的是可逆性,并且单调性可确保级别的级别确保级别的级别。从s向r的转换用r = t -1(s)
摘要 — 最近的研究表明,将时间分辨的单光子雪崩二极管 (SPAD) 传感器与神经网络直接耦合,可以简化信号处理并减少冗余。然而,之前的尝试仅限于通用神经网络模型,包括长短期记忆 (LSTM),这些模型无法实现针对特定任务的优化。基于对 SPAD 深度感知任务需求的洞察,这项工作引入了一种高度简化的脉冲循环神经网络,专门为此目的而量身定制。该模型具有独特的单输入门架构,仅通过简单的脉冲神经元实现。与经典 LSTM 相比,它的准确度有所提高,参数数量减少了 1.95 倍,能耗降低了至少 8.40 倍,同时性能显著优于其他脉冲神经网络。结果强调了开发专用于当前任务的网络架构的重要性,这可能为完全像素内处理的潜在进步铺平道路。索引词 — 单光子雪崩二极管、直接飞行时间、脉冲神经网络、循环神经网络、机器学习
摘要。这项研究系统地研究了图像增强技术对基于卷积神经网络(CNN)基于脑肿瘤分离的影响,重点是直方图均衡(HE),对比度有限的适应性直方图均衡(CLAHE)及其杂化变量。在3064个大脑MRI图像的数据集中采用U-NET体系结构,研究深入研究了预处理步骤,包括调整和增强大小,以优化细分精度。提供了基于CNN的U-NET体系结构,培训和验证过程的详细分析。利用诸如准确性,损失,MSE,IOU和DSC等指标的比较分析表明,混合方法Clahe始终优于其他方法。结果强调了其优异的准确性(分别用于培训,测试和验证的0.9982、0.9939、0.9936)和鲁棒分割重叠,JACCARD值为0.9862、0.9847和0.9864,以及0.9864,以及0.993,0.993,0.9923,0.9923,和0.9923,和0.9923,和0.9923,和0.9923,和0.99999999999999999999999999999999999999999999999999999999999999999999999999999999993.9999999999999999999999993号。申请。该研究以分割方法进行完善,以进一步增强神经肿瘤学中的诊断精度和治疗计划。
摘要。本研究系统地研究了图像增强技术对基于卷积神经网络 (CNN) 的脑肿瘤分割的影响,重点关注直方图均衡化 (HE)、对比度限制自适应直方图均衡化 (CLAHE) 及其混合变体。该研究在 3064 张脑 MRI 图像的数据集上采用 U-Net 架构,深入研究了预处理步骤,包括调整大小和增强,以优化分割精度。对基于 CNN 的 U-Net 架构、训练和验证过程进行了详细分析。利用准确度、损失、MSE、IoU 和 DSC 等指标进行的比较分析表明,混合方法 CLAHE-HE 始终优于其他方法。结果突出了其卓越的准确度(训练、测试和验证分别为 0.9982、0.9939、0.9936)和强大的分割重叠,Jaccard 值为 0.9862、0.9847 和 0.9864,Dice 值为 0.993、0.9923 和 0.9932,强调了其在神经肿瘤学应用中的潜力。研究最后呼吁改进分割方法,以进一步提高神经肿瘤学的诊断精度和治疗计划。
阿尔茨海默病 (AD) 越来越影响老年人,是 65 岁以上人群的主要杀手。不同的深度学习方法用于自动诊断,但它们也存在一些局限性。深度学习是用于检测和分类医学图像的现代方法之一,因为深度学习能够自动提取图像的特征。然而,使用深度学习准确分类医学图像仍然存在局限性,因为提取医学图像的精细边缘有时被认为是困难的,并且图像中存在一些失真。因此,本研究旨在开发一种计算机辅助脑部诊断 (CABD) 系统,该系统可以判断脑部扫描是否显示出阿尔茨海默病的迹象。该系统采用 MRI 和特征提取方法对图像进行分类。本文采用阿尔茨海默病神经影像学计划 (ADNI) 数据集,包括用于阿尔茨海默病患者识别的功能性 MRI 和正电子版本断层扫描,这些扫描是为阿尔茨海默病患者和典型个体制作的。所提出的技术利用 MRI 脑部扫描来发现和分类特征,利用直方图特征提取 (HFE) 技术与 Canny 边缘相结合来表示卷积神经网络 (CNN) 分类的输入图像。此策略跟踪图像中梯度方向的实例。实验结果为 ADNI 图像分类提供了 97.7% 的准确率。
阿尔茨海默氏病是淀粉样蛋白斑块,神经原纤维缠结和神经元变性的一种普通痴呆形式。该疾病无法治愈,早期发现对于改善患者预后至关重要。磁共振成像(MRI)对于测量疾病期间的神经退行性很重要。计算机辅助图像处理工具已用于帮助医疗专业人员在早期阶段确定对阿尔茨海默氏症的诊断。作为非痴呆症阶段的特征,跟踪进展是具有挑战性的。我们的工作基于平滑直方图的形态开发了一种自适应多阈值算法,以定义识别神经变性的特征,并将其进展为非,非常温和,轻度和中等。灰色和白色物质体积,统计矩,多阈值,收缩,灰白物质比以及三个距离和角度值是数学得出的。决策树,判别分析,幼稚的贝叶斯,SVM,KNN,集合和神经网络分类器旨在以性能指标的准确性,召回度,特异性,精度,F1分数,Matthew的相关系数和KAPPA值来评估所提出的方法。实验结果表明,所提出的特征成功地标记了神经变性阶段。
摘要 - 我们提供了通过利用一类近距离飞行时间(TOF)距离传感器捕获的瞬态直方图来恢复平面场景几何形状的方法。瞬态直方图是一个一维的时间波形,它填充了入射在TOF传感器上的光子的到达时间。通常,传感器使用专有算法处理瞬态直方图以产生距离估计值,距离估计值通常在几种机器人应用中使用。我们的方法直接利用了瞬态直方图,以使平面几何形状能够更准确地恢复,仅使用专有距离估计值,并且平面表面的反照率的一致恢复,而单独的距离估计是不可能的。这是通过可区分的渲染管道来完成的,该管道模拟了瞬态成像过程,从而可以直接优化场景几何形状以匹配观测值。为了验证我们的方法,我们从广泛的观点中捕获了八个平面表面的3,800个测量值,并表明我们的方法在大多数情况下都以数量级优于专有距离基线的基线。我们演示了一种简单的机器人应用程序,该应用程序使用我们的方法感知与安装在机器人臂端效应器上的传感器的平面表面的距离和斜率。I. i tratoduction o ptally of飞机近距传感器最近已广泛使用场景瞬变。尽管这些传感器具有许多理想的属性,但现有的机器人应用程序不利用瞬态直方图,而是依靠低分辨率(最多最多这些传感器通过用光脉冲照亮场景,并在瞬态直方图中从场景中重新转移到场景中,从而测量该脉冲的形状,如图1。这些瞬态传感器在机器人技术中的使用是由于它们可靠地报告较大范围内(1cm -5m)的距离估计值,同时较小(<20 mm 3),轻量级和低功率(按测量的毫米级订单)[1],[2],[2]。由于其形式,可以将瞬态传感器放置在较高分辨率3D传感器无法的位置,例如在机器人操纵器的抓地力或链接上,或在非常小的机器人上。
摘要 — 深度学习通过使用卷积神经网络 (CNN) 对电路结构进行分割,在具有挑战性的电路注释任务中取得了巨大成功。深度学习方法需要大量手动注释的训练数据才能获得良好的性能,如果将在给定数据集上训练的深度学习模型应用于不同的数据集,则可能会导致性能下降。这通常被称为电路注释的域转移问题,其源于不同图像数据集之间的分布可能存在很大差异。不同的图像数据集可以从不同的设备或单个设备内的不同层获得。为了解决域转移问题,我们提出了直方图门控图像转换 (HGIT),这是一种无监督域自适应框架,它将图像从给定的源数据集转换到目标数据集的域,并利用转换后的图像来训练分割网络。具体而言,我们的 HGIT 执行基于生成对抗网络 (GAN) 的图像转换并利用直方图统计数据进行数据管理。实验是在适应三个不同目标数据集(无训练标签)的单个标记源数据集上进行的,并评估了每个目标数据集的分割性能。我们已经证明,与已报道的域自适应技术相比,我们的方法实现了最佳性能,并且也相当接近完全监督的基准。索引术语——深度学习、集成电路图像分析、无监督域自适应、图像到图像转换
本硕士论文由 UNF Digital Commons 的学生奖学金免费提供给您,供您免费访问。它已被 UNF Digital Commons 的授权管理员接受并纳入 UNF 研究生论文和学位论文。有关更多信息,请联系 Digital Projects。© 1990 保留所有权利
摘要。在许多应用中,对可靠、小型且低成本的三维成像系统的需求很大。对于汽车应用以及安全的人机协作等应用而言,有前途的系统是基于直接飞行时间原理的光检测和测距 (激光雷达) 系统。特别是对于覆盖大视野或长距离能力,以前使用的多边形扫描仪已被微机电系统 (MEMS) 扫描仪取代。最近的发展是用单光子雪崩二极管 (SPAD) 取代通常使用的雪崩光电二极管。与其他方法相比,将这两种技术结合到基于 MEMS 的 SPAD 激光雷达系统中有望显着提高性能并降低成本。为了区分信号和背景/噪声光子,基于 SPAD 的探测器必须通过累积多个时间分辨测量来形成直方图。本文提出了一种信号和数据处理方法,该方法考虑了直方图形成过程中 MEMS 扫描仪的时间相关扫描轨迹。基于立体视觉设置中使用的已知重建过程,推导出累积时间分辨测量的估计值,从而可以将其分类为信号或噪声。除了信号和数据处理的理论推导外,还在基于 MEMS 的概念验证 SPAD 激光雷达系统中通过实验验证了实现。© 作者。由 SPIE 根据知识共享署名 4.0 国际许可发布。全部或部分分发或复制本作品需要完全署名原始出版物,包括其 DOI。[DOI:10.1117/1.JOM.2.1.011005]