胎儿心脏视图的解剖结构检测对于诊断胎儿先天性心脏病至关重要。实际上,不同的Hos-Pitals数据之间存在较大的域间隙,例如由于采集设备的不同而引起的可变数据质量。此外,产科专家提供的准确的符号信息非常昂贵甚至无法使用。本研究探讨了无监督的域自适应胎儿心脏结构检测问题。现有的无监督域自适应观察检测(UDAOD)的方法主要集中在自然场景中的特定物体,例如雾gy的城市景观中,自然场景的结构关系是不确定的。Unlike all previous UDAOD scenarios, we first collected a F etal C ardiac S tructure dataset from two hos- pital centers, called FCS , and proposed a multi-matching UDA approach ( M 3 -UDA ), including H istogram M atching (HM), S ub-structure M atching (SM), and G lobal-structure M atching (GM), to better transfer the在医疗场景中进行UDA检测的解剖结构的拓扑知识。HM减轻由像素转换引起的源和目标之间的域间隙。sm融合了子结构的不同角度信息,以遵循局部拓扑知识,以弥合内部子结构的主要间隙。GM旨在使整个器官的全球拓扑知识与目标域相结合。对我们收集的FCS和Cardiacuda进行了广泛的实验,实验结果表明,M 3 -UDA的表现胜过现有的UDAOD研究。数据集和源代码可在https://github.com/xmed-lab/m3-uda
摘要:本文提出了一种新型的监督学习方法——统计自适应傅里叶分解(SAFD)。SAFD 使用正交有理系统或 Takenaka-Malmquist(TM)系统为训练集建立学习模型,在此基础上可以对未知数据进行预测。该方法侧重于信号或时间序列的分类。AFD 是一种新开发的信号分析方法,它可以自适应地将不同的信号分解为不同的 TM 系统,引入了傅里叶类型但非线性和非负的时频表示。SAFD 将学习过程与 AFD 的适应性特征充分结合起来,其中少量的学习原子足以捕获信号的结构和特征以进行分类。SAFD 有三个优点。首先,在学习过程中会自动检测和提取特征。其次,所有参数都由算法自动选择。最后,将学习到的特征以数学形式表示出来,并可以根据感应瞬时频率进一步研究特征。通过心电图 (ECG) 信号分类验证了所提方法的有效性。实验表明,该方法比其他基于特征的学习方法效果更好。
来自图像的深度估计是具有广泛应用的计算机视觉中的一个长期问题。对于基于视觉的自动驾驶系统,感知深度是理解道路对象和建模3D环境图的相关性的不可或缺的模块。由于深度神经网络用于求解各种视觉概率,因此基于CNN的方法[2-5,13,39 - 42,44,44,46,48,52]主导了各种深度基准。根据输入格式,它们主要将其分为多视图深度估计[3,13,23,26,44,45,51,53]和单视深度估计[14 - 16,19,37,38]。多视图方法估计深度的假设,即给定的深度,相机校准和摄像头姿势,这些像素应相似。他们依靠表现几何形状来三角形高质量深度。但是,多视图方法的准确性和鲁棒性在很大程度上依赖于相机的几何配置以及视图之间匹配的对应关系。首先,需要足够翻译相机以进行三角度。在自主驾驶的情况下,汽车可能会停在交通信号灯处或不移动而不移动,这会导致故障三角剖分。此外,多视图方法遭受动态对象和无动电区域的影响,它们在自动驱动方案中无处不在。另一个问题是对移动车辆的施加优化。在存在的大满贯方法中不可避免地噪声,更不用说具有挑战性和可取的情况了。具体来说,我们提出了一个两个分支网络,即例如,一辆机器人或自动驾驶汽车可以在不重新校准的情况下部署多年,原因是嘈杂的姿势。相比之下,作为单视图方法[14 - 16,19,37,38]依赖于对场景的语义理解和透视投影提示,它们对无纹理区域,动态对象,而不是依赖相机姿势更为易用。但是,由于规模歧义,其性能仍然远非多视图方法。在这里,我们倾向于考虑是否可以很好地结合两种方法的好处,以实现自主驾驶场景中的稳健和准确的单眼视频深度估计。尽管已经在先前的工作中探索了基于融合的系统[1,9],但他们都假定了理想的相机姿势。结果是融合系统的性能甚至比单视深度估计的噪声姿势还差。为了解决这个问题,我们提出了一个新型的自适应融合网络,以利用多视图和单视图方法的优势,并减轻其缺点,以保持高度的精度,并在噪声姿势下提高系统的影响力。一个靶向单眼深度提示,而另一个则利用多视图几何形状。两个分支都预测了深度图和置信图。补充语义提示和边缘细节在多视图分支的成本汇总中丢失了
由于可能存在数据偏差和预测方差,图像去噪是一项具有挑战性的任务。现有方法通常计算成本高。在这项工作中,我们提出了一种无监督图像去噪器,称为自适应双自注意网络(IDEA-Net),以应对这些挑战。IDEA-Net 受益于生成学习的图像双自注意区域,其中强制执行去噪过程。此外,IDEA-Net 不仅对可能的数据偏差具有鲁棒性,而且还通过仅在单个噪声图像上应用具有泊松丢失操作的简化编码器-解码器来帮助减少预测方差。与其他基于单图像的学习和非学习图像去噪器相比,所提出的 IDEA-Net 在四个基准数据集上表现出色。 IDEA-Net 还展示了在低光和嘈杂场景中去除真实世界噪声的适当选择,这反过来有助于更准确地检测暗脸。源代码可在 https://github.com/zhemingzuo/IDEA-Net 获得。
城市绿色基础设施(UGI)在通过自适应管理方法将生物多样性保护与可持续城市发展的可持续发展方面至关重要。本文介绍了一个综合概念框架,该框架整合了生态原理,城市规划策略和自适应管理方法,以培养有弹性和生物多样性的城市景观。UGI的本质在于它能够增强生态连通性,恢复生态系统功能并为城市环境中各种风水和动物群提供栖息地的能力。统治UGI设计的基本原则强调了其多功能性,连通性,多样性和可访问性,强调了以其迭代性和参与性为标志的适应性管理的重要性。尽管城市化带来的挑战,例如栖息地丧失,污染和气候变化,UGI干预措施为增强栖息地质量,连通性和生态系统弹性提供了有希望的途径。全球案例研究表明,UGI在生物多样性保护中的有效性,利用绿色屋顶,城市森林和社区花园等计划。UGI通过在各个领域提供多种生态系统服务,为可持续的城市发展做出了重要贡献。自适应管理对于有效的UGI规划和实施至关重要,在不断发展的环境条件下确保灵活性。但是,UGI遇到了障碍,包括资金限制,机构分裂和公平问题。应对这些挑战需要创新的培养机制,社区参与和政策创新。ugi提出了一种变革性的途径,可以促进弹性,生物多样性和可持续的城市景观,这对于城市在21世纪必须蓬勃发展。
近年来,基于深度学习的目标检测取得了长足的进步。然而,由于域转移问题,将现成的检测器应用于看不见的域会导致性能大幅下降。为了解决这个问题,本文提出了一种新的由粗到细的特征自适应方法用于跨域目标检测。在粗粒度阶段,与文献中使用的粗糙的图像级或实例级特征对齐不同,采用注意机制提取前景区域,并通过在公共特征空间中多层对抗学习根据其边缘分布进行对齐。在细粒度阶段,我们通过最小化来自不同域但属于同一类别的全局原型的距离来进行前景的条件分布对齐。由于这种由粗到细的特征自适应,前景区域中的领域知识可以得到有效的迁移。在各种跨域检测场景中进行了大量的实验。结果是最先进的,证明了所提出方法的广泛适用性和有效性。
尽管在日常任务中对弱势群体(例如,老年人,儿童和残疾人)的辅助技术有很大的需求,但对高级AID辅助解决方案的研究确实满足了他们的各种需求,这仍然很少。传统的人机互动任务通常需要机器来简单地帮助您对人类能力和感觉的细微差别,例如他们进行实践和学习的机会,自我改善感和自尊心。解决这一差距时,我们定义了一个关键而新颖的挑战智能帮助,旨在为各种残疾人的人提供积极主动而自适应的支持,并在各种任务和环境中提供动态目标。为了确定这一挑战,我们利用AI2- [32]来构建一个新的互动3D实体家庭环境,以完成智能帮助任务。我们采用了一个创新的对手建模模块,该模块对主要代理的能力和目标有细微的理解,以优化辅助代理人的帮助政策。严格的实验验证了我们的模型组件的功效,并显示了我们整体方法与已建立基线的优越性。我们的发现说明了AI所辅助机器人在改善弱势群体的福祉方面的潜力。
主动深度传感可实现强大的深度估计,但通常受感应范围的限制。天真地增加光学能力可以改善传感范围,但对许多应用(包括自主机器人和增强现实)的视力安全关注。在本文中,我们提出了一个自适应的主动深度传感器,该传感器可以共同介绍范围,功耗和眼部安全。主要观察结果是,我们不需要将光模式投影到整个场景,而只需要在关注的小区域中,在应用程序和被动立体声深度所需的深度失败的情况下。理论上将这种自适应感知方案与其他感应策略(例如全帧投影,线扫描和点扫描)进行了比较。我们表明,为了达到相同的最大感应距离,提出的方法在最短(最佳)眼部安全距离时会消耗最小的功率。我们用两个硬件原型实现了这种自适应感测方案,一个具有仅相位空间光调制器(SLM),另一个带有微电动机械(MEMS)镜像和衍射光学元素(DOE)。实验结果验证了我们方法的优势,并证明了其能力自适应地获得更高质量的几何形状。请参阅我们的项目网站以获取视频结果和代码:
1。一种自我监督的模型登录方法,仅取决于正面匹配对以改善面部嵌入。2。面部聚类的基于深度学习的相似性度量,该指标会自动适应给定模型的学习嵌入空间。3。不需要任何用户输入参数的全自动视频面聚类算法。4。发布电影脸聚类基准数据集,称为MoviefaceCluster,该数据集提供了电影域中存在的极端挑战的面部聚类场景。