摘要 - 在动态图上检测到的动态检测旨在与图表中观察到的标准模式及其时间信息相比,识别表现出异常行为的实体。由于其在财务,网络安全和社交网络等各个领域的应用,它引起了越来越多的关注。但是,现有方法面临两个重大挑战:(1)动态结构捕获挑战:如何有效地使用复杂的时间信息捕获图形结构,以及(2)负面采样挑战:如何为无人看管的学习构建高质量的负样本。为了应对这些挑战,我们提出了对动态图(Gady)的生成异常检测。gady是一个连续的动态图模型,可以捕获细粒的时间信息以应对动态结构捕获挑战,从而克服了现有离散方法的局限性。指定,我们建议使用优先级的时间聚集和状态特征来增强动态图编码器以进行异常检测。在第二个挑战中,我们引入了生成对抗网络的新颖使用来产生负面子图。此外,在发电机训练目标中引入了辅助损失功能,以确保同时生成的样品的多样性和质量。广泛的实验表明,我们提出的Gady在三个现实世界数据集上的表现明显优于现状方法。补充实验进一步验证了我们的模型设计的有效性和每个组件的必要性。
目光的估计已成为最近研究日益兴趣的主题。大多数当前方法都依赖于单视面图像作为输入。然而,这些副本很难处理较大的头部角度,从而导致估计的准确性。要解决此问题,添加二视摄像头可以帮助更好地捕获眼睛的外观。但是,现有的多视图方法具有两个限制。1)他们需要培训的多视图注释,这很昂贵。2)更重要的是,在测试过程中,必须知道多个相机的确切位置并与训练中使用的相匹配,这限制了应用程序场景。为了应对这些挑战,我们提出了一种新颖的1视图 - 2视图(1-2视图)适应解决方案,在本文中,无监督的1-2视图适应框架 - 用于注视估计的工作(UVagaze)。我们的方法适应了一个传统的单视凝视估计器,以灵活地放置了双摄像头。在这里,“灵活”意味着我们将双摄像头放在任意位置,而不论训练数据如何,而不知道它们的外部参数。具体来说,乌瓦加兹(Uvagaze)建立了双视图相互监督适应策略,它利用了两种观点之间的凝视方向的内在一致性。以这种方式,我们的方法不仅可以从常见的单视图预训练中受益,而且还可以实现更高级的双视凝视估计。实验结果表明,单视图估计量适用于双重视图,可以获得更高的效果,尤其是在跨数据集设置中,取代率提高了47.0%。项目页面:https://github.com/ mickeyllg/uvagaze。
病理性脑损伤在脑图像中呈现出不同的外观,由于缺乏全面的数据和注释,很难训练监督检测解决方案。因此,在这项工作中,我们解决了无监督异常检测问题,仅使用健康数据进行训练,目的是在测试时检测未见的异常。许多当前方法采用具有限制性架构(即包含信息瓶颈)的自动编码器,这些自动编码器不仅会对异常部分进行不良重建,而且会对正常部分进行不良重建。相反,我们研究了经典的去噪自动编码器模型,这些模型不需要瓶颈,并且可以使用跳过连接来提供高分辨率保真度。我们设计了一种简单的噪声生成方法来升级低分辨率噪声,从而实现高质量的重建。我们发现,通过适当的噪声生成,去噪自动编码器重建误差可以推广到高强度病变分割,并达到脑 MRI 数据中无监督肿瘤检测的最新性能,击败了变分自动编码器等更复杂的方法。我们相信这为进一步研究无监督异常检测提供了强大且易于实施的基础。关键词:异常检测、无监督学习、自动编码器、去噪、MRI。
摘要 - 当血管在脑组织内或颅骨内部的其他地方破裂或泄漏时,会发生颅内出血。这可能是由身体创伤或各种医疗状况引起的,在许多情况下会导致死亡。必须尽快开始治疗,因此应准确,快速诊断出出血。诊断通常是由放射科医生进行的,他分析了计算机断层扫描(CT)扫描,该扫描包含整个大脑的大量横截面图像。手动分析每个图像可能非常耗时,但是自动化技术可以帮助加快流程。尽管最近的许多研究都通过使用监督的机器学习算法来解决此问题,但由于隐私问题,公开可用的培训数据仍然很少。可以通过无监督的算法来缓解此问题。在本文中,我们提出了一种基于混合模型的完全无监督算法。我们的算法利用了这样一个事实,即出血和健康组织的性质遵循不同的分布,因此,对这些分布的适当表述使我们能够通过预期最大化的过程将它们分开。此外,我们的算法能够自适应地确定簇的数量,从而在不包括嘈杂的体素的情况下可以找到所有出血区域。我们在公共可用数据集上演示了我们的算法结果,这些数据集包含各种大小和强度的所有不同出血类型,我们的结果与早期的无监督和监督算法进行了比较。结果表明,我们的算法可以胜过大多数出血类型的其他算法。索引术语 - 计算机辅助诊断,颅内下摆,计算机断层扫描,混合模型,无监督的机器学习
深层神经网络目前提供了整个灵长类动物腹视觉流中神经元反应模式的最佳定量模型。然而,作为腹侧流的开发模型,此类网络仍然令人难以置信,部分原因是它们是经过超级可见的方法培训的,需要比婴儿在发育过程中可以使用更多标签的方法。在这里,我们报告说,无监督学习的最新进展在很大程度上缩小了这一差距。我们发现,在多个腹侧视觉皮质皮质区域中,神经网络模型以深层的对比性嵌入方法获得了神经预测的准确性,该区域等于或超过了使用当今最佳监督方法得出的模型,并且这些神经网络模型的映射是神经层在整个通风流中的神经层。令人惊讶的是,我们发现这些方法即使仅接受从头部安装的相机收集的实际人类儿童发育数据进行训练,即使这些数据集很嘈杂且有限,也会产生类似的表示形式。我们还发现,半佩里的深层对比嵌入可以利用少量标记的示例来产生代表,具有大大改善人类行为的错误模式一致性。综上所述,这些结果说明了无监督学习的使用,以提供穆尔氏皮质脑系统的定量模型,并为灵长类动物感觉学习的生物学上合理的计算理论提供了强有力的候选者。
神经科学的最新进展强调了多模式医学数据在研究某些病理和了解人类认知方面的有效性。但是,获得一组不同的模态的完整集受到各种因素的限制,例如长期获取时间,高检查成本和伪影抑制。此外,神经影像数据的复杂性,高维度和异源性仍然是有效地利用现有随机扫描的另一个关键挑战,因为不同机器通常对相同方式的数据进行了不同的测量。显然需要超越传统成像依赖性过程,并从源中综合解剖学特定的目标模式数据。在本文中,我们建议学习使用新型CSCℓ4NET跨内部和模式内变化的专用特征。通过特征图和多元典范适应性中的模态数据的初始统一,CSCℓ4净4净促进了特征级别的相互转换。正定的riemannian歧管 - 惩罚数据限制项进一步使CSCℓ4NET可以根据变换的特征重新构建缺失测量值。最后,最大化ℓ4 -norm沸腾到计算上有效的优化问题。具有较大的实验可以验证我们的CSCℓ4NET的能力和鲁棒性与Multiple数据集中的最新方法相比。
近年来在未加强的持续学习方法中取得了重大进展。尽管它们在受控设置中取得了成功,但它们在现实世界中的实用性仍然不确定。在本文中,我们首先从经验上介绍了现有的自我保护的持续学习方法。我们表明,即使有了重播缓冲液,现有的methods也无法保留与时间相关输入的视频的关键知识。我们的见解是,无监督的持续学习的主要挑战源于无法预测的意见,缺乏监督和先验知识。从Hybrid AI中汲取灵感,我们介绍了E Volve,这是一个创新的框架,它是云中的多个预审预周化模型,作为专家,以加强对Lo-cal Clister的现有自我监督的学习方法。e Volve通过新颖的专家聚合损失来利用专家指导,并从云中返回并返回。它还根据专家的信心和量身定制的先验知识将权重动态分配给专家,从而为新流数据提供自适应监督。我们在几个具有时间相关的实地世界数据流中广泛验证了E volve。结果令人信服地表明,E Volve超过了最佳的无监督持续学习方法,在跨Var-IOS数据流的Top-1线性评估准确性中,volve持续了6.1-53.7%,从而确认了多样化的专家指南的功效。代码库位于https://github.com/ orienfish/evolve。
总之,有几种进行检查的方法。手动检测有很多缺点:它是主观的,乏味的和效率低下的,几乎无法量化。基于计算机视觉的自动光学检查(AOI)被广泛使用,根据[4]的AOI,AOI的主要方向是(a)参考方法(与模板进行比较),(b)非参考方法(在没有比较与模板中比较的构造元素)和(c)(c)杂交方法的杂种方法(c)构成了杂交方法。在[2]的稍后,将其他方法添加到包括机器学习在内的混合方法中。基于学习的模型,例如[5、6、7],用于缺陷检测:例如,[5]的方法使用加速的鲁棒特征(冲浪),然后学习故障模式并计算概率和随机森林。通过使用加权核密度估计来估计特征的密度,从而给出了缺陷的定位。
对静电定义的半导体量子点进行了深入研究,以进行固态量子计算[1-4]。栅极电极旨在分别控制电化学电位和隧道屏障[5,6]。但是,这些设备参数在非单调方面变化,并且并不总是可以通过应用的门电压来预测,从而使设备调整为复杂且耗时的任务。全自动设备调整对于半导体Qubit电路的可扩展性至关重要。调整静电定义的量子点设备可以分为三个阶段。第一个阶段是超粗调节,它包括设置栅极电压,以创建电子或孔的结合潜力。第二阶段(称为粗调)着重于识别和导航量子点设备的不同操作机制。第三阶段,称为精细调整,涉及优化特定的电荷转换集。最近已经实现了第一个调整阶段的完整自动化[7]。使用卷积神经网络证明了自动粗调调谐,以识别双量子点状态[8]并达到任意电荷状态[9]。模板匹配也用于导航到单电子制度[10]。在此阶段,虚拟栅极电极可用于独立控制每个量子点的电化学电位[11,12]。但是,这些方法仅允许优化从执行的测量值估算并依赖校准的设备参数。vae以前关于自动调节的工作重点是通过系统修改栅极电压来实现两个量子点之间隧道耦合的目标值[13,14]。在这里,我们演示了一种自动化方法,用于同时调整多个设备参数,例如隧道速率和点间隧道耦合,而无需参数化所需的测量功能。我们的方法基于变异自动编码器(VAE)。
文本对图像(T2I)合成是一项艰巨的任务,该任务是对文本和图像域及其关系进行建模。最近作品实现的图像质量的实质性改进为Nuberon应用程序铺平了道路,例如语言辅助图像编辑,计算机辅助设计,基于文本的图像检索和培训数据增强。在这项工作中,我们提出了一个简单的问题:与逼真的图像一起,我们是否可以以一种不受影响的方式获得任何有用的副产品(例如前景 /背景或多类分割掩码,检测标签,检测标签),这也将使其他计算机视觉任务任务和应用受益?试图回答这个问题,我们探索了从给定文本中的逼真的图像及其相应的前景 /背景分割掩码。为了实现这一目标,我们与GAN一起实验了共进行分割的概念。具体而言,提出了一种名为“共裂”启发的GAN(COS-GAN)的新型GAN结构,该结构同时从不同的噪声矢量中同时生成两个或多个图像,并利用图像特征之间的空间关注机制来生成逼真的分段掩码,以生成生成的Im-Im-Im-Im-Im-Im-Im-Im-Im-Im-Im-Agens。这种架构的优点是两倍:1)生成的分割掩码可用于专注于前景和背景,以改善生成的图像的质量,2)分段蒙版可以用作其他任务的训练目标,例如访问本地化和分割。在CUB,Oxford-102和可可数据集上进行的广泛实验表明,Cos-Gan能够改善视觉质量,并为发电图像提供可靠的前景 /背景掩码。