●密苏里植物园是世界上最大的草药之一的所在地,是植物学最伟大的发展之一。●草药是世界上保存的植物标本的图书馆,提供了有关植物多样性,分布,地理和生态学的基本信息。●革命性物种识别(RSI)项目是一项变革性的计划,旨在将密苏里植物园广泛的植物标本室收藏数字化。该项目将利用最先进的人工智能(AI)技术来加速植物物种识别识别,这将为全球的恢复和保护工作提供依据。●AI技术将自动检测到独特的植物特征,该特征将用于创建植物特征的在线参考库。然后,科学家将能够将图像和其他数据从不明的工厂上传到一个新的项目网站,以快速自动化物种识别。●除了加速全球恢复和保护工作外,该项目还可以通过在植物分类学和制药室创建植物分类法和制造植物分类方面提供宝贵的培训计划来开发下一代植物专家。●这项具有里程碑意义的计划是由匿名$ 1440万美元的赠款(近年来植物学最大的赠款)在未来六年内将600万个植物标本在线上带来600万个植物标本的可能性,使全球科学家,保护主义者和政策制定者可以免费访问关键数据。
1 美国东北大学网络科学研究所和物理系,马萨诸塞州波士顿 02115;2 美国哈佛医学院布莱根妇女医院医学系钱宁网络医学分部,马萨诸塞州波士顿 02115;3 美国哈佛大学生物医学信息学系,马萨诸塞州波士顿 02115;4 美国哈佛大学哈佛数据科学计划,马萨诸塞州剑桥 02138。5 Scipher Medicine,221 Crescent St, Suite 103A,马萨诸塞州沃尔瑟姆 02453;6 美国东北大学物理系,马萨诸塞州波士顿 02115;7 萨班哲大学工程与自然科学学院,土耳其伊斯坦布尔 34956;8 美国马萨诸塞州波士顿大学 NEIDL 微生物学系;9 美国马萨诸塞州波士顿哈佛医学院布莱根妇女医院医学系10 匈牙利布达佩斯 1051,中欧大学网络与数据科学系。 * 这些作者的贡献相同
视觉场景是自然组织的,在层次结构中,粗糙的语义递归由几个细节组成。探索这种视觉层次结构对于认识视觉元素的复杂关系至关重要,从而导致了全面的场景理解。在本文中,我们提出了一个视觉层次结构映射器(HI-MAPPER),这是一种增强对预训练的深神经网络(DNNS)结构化理解的新方法。hi-mapper通过1)通过概率密度的封装来调查视觉场景的层次结构组织; 2)学习双曲线空间中的分层关系,并具有新颖的分层对比损失。预定义的层次树通过层次结构分解和编码过程递归地与预训练的DNN的视觉特征相互作用,从而有效地识别了视觉层次结构并增强了对整个场景的识别。广泛的实验表明,Hi-Mapper显着增强了DNN的表示能力,从而改善了各种任务的性能,包括图像分类和密集的预测任务。代码可在https://github.com/kwonjunn01/hi-mapper上找到。
摘要 — 本文提出了一种基于电网内现行功率流条件的节点聚类新方法。为此,首先,将网络的有功功率流状态建模为有向无环图。该有向图明确表示功率流向何处,这有助于监控和分析系统漏洞。有向无环图表示还可以轻松识别仅提供或吸收有功功率的总线:这些总线分别是纯源节点和纯汇节点。对系统中的每个节点应用迭代路径查找程序,以枚举供电的源节点和其将功率转发到的下游汇节点。然后应用新颖的聚类算法将共享同一组可达源节点和汇节点的节点分组在一起。首先提出这种新颖的聚类方法作为一种工具,通过更好地总结大型电网中的总功率流配置来提高控制室操作员的态势感知能力。所提出的方法应用于两个样本电网,并阐述了与河流系统的类比,将支流、分流和中央主流等概念应用于电网。
现代生活的几乎所有方面都取决于太空技术。多亏了计算机视频的一般和深度学习技术的巨大进步,几十年来,全世界都见证了将深度学习的发展用于解决太空问题的问题,例如自动驾驶机器人,诸如示踪剂,类似昆虫的机器人,类似昆虫的机器人和SpaceCraft的健康监测。这些只是一些在深度学习的帮助下具有高级空间行业的重要例子。但是,深度学习模型的成功需要大量的培训数据才能具有不错的性能,而另一方面,用于培训深度学习模型的公开空间数据集非常有限。当前没有用于基于太空的对象检测或实例分割的公共数据集,部分原因是手动注释对象分割掩码非常耗时,因为它们需要像素级标签,更不用说从空间获取图像的挑战了。在本文中,我们的目标是通过释放数据集以进行航天器检测,实例分割和零件识别来填补这一差距。这项工作的主要贡献是使用太空设置和卫星的图像开发数据集,并具有丰富的注释,包括绑定的航天器和口罩的框架盒对物体部分的水平,这些盒子是通过自动程序和手动努力的混合而获得的。我们还提供了对象检测和Intance Sementation的最新方法作为数据集的基准。可以在https://github.com/yurushia1998/satellitedataset上找到下载建议数据集的链接。
时空卷积通常无法学习视频中的运动动态,因此需要一种有效的运动表示来理解自然界中的视频。在本文中,我们提出了一种基于时空自相似性(STSS)的丰富而鲁棒的运动表示。给定一系列帧,STSS 将每个局部区域表示为与空间和时间中邻居的相似性。通过将外观特征转换为关系值,它使学习者能够更好地识别空间和时间中的结构模式。我们利用整个 STSS,让我们的模型学习从中提取有效的运动表示。我们所提出的神经块称为 SELFY,可以轻松插入神经架构中并进行端到端训练,无需额外监督。通过在空间和时间上具有足够的邻域体积,它可以有效捕捉视频中的长期交互和快速运动,从而实现鲁棒的动作识别。我们的实验分析表明,该方法优于以前的运动建模方法,并且与直接卷积的时空特征互补。在标准动作识别基准 Something-Something-V1 & V2、Diving-48 和 FineGym 上,该方法取得了最佳效果。
场景文本图像不仅包含样式信息(字体,背景),还包含内容信息(字符,纹理)。不同的场景文本任务需要不同的信息,但是以前的表示学习方法 - 在所有任务中使用紧密耦合的功能,从而导致次优性能。我们提出了一个旨在解开这两种功能的分解表示学习框架(亲爱的),以改善适应性,以更好地解决各种下游任务(选择您真正需要的内容)。具体来说,我们合成具有相同样式但内容不同的图像对数据集。基于数据集,我们通过监督设计将两种类型的功能分解。很明显,我们将视觉表示形式直接分为样式和内容功能,内容特征是通过文本识别损失来监督的,而对齐损失使图像对中的样式特征保持一致。然后,样式功能用于通过图像解码器重新构造对应图像的提示,以指示对应方的内容。这样的操作根据其独特属性有效地将功能分解。据我们所知,这是场景文本领域中第一次删除文本图像的固有属性。 我们的方法在场景文本识别,转换和编辑中实现了最新的性能。据我们所知,这是场景文本领域中第一次删除文本图像的固有属性。我们的方法在场景文本识别,转换和编辑中实现了最新的性能。
生物识别是指个人独特的身体和行为特征,例如指纹、面部特征、声音或打字模式。生物识别在用于安全和安保目的的人工智能应用中尤为重要,因为它们提供了一种可靠且方便的识别和验证个人的方法。人工智能技术具有快速处理和分析生物特征数据的强大能力。
战争5,阿巴多·伊玛德·埃尔·塔维尔3,奥斯瓦尔多·马拉菲亚3作者隶属关系:1帕拉纳帕拉纳司法天主教大学,巴西库里蒂巴; 2个积极大学,库里蒂巴,巴西,巴西; 3巴西SP的Mackenzie Presbyterian Institute,SAO Paulo; 4巴拉那联邦帕拉纳大学,巴西PR; 5医院塞索·拉莫斯(Celso Ramos),弗洛里亚诺波利斯(Florianópolis),南卡罗来纳州,巴西。orcid ana ana julia ribas sigwalt-https://orcid.org/0009-0005-4732-5093 gabriella micheten dias-https://orcid.rcid/0000-0001-11-7036-036-048036-0480líviadala dala dala dala dala dala dala dala dala dala pocay-- https://orcid.org/0009-0007-1526-1851 mahara freitas dos santos-https://orcid.org/0009-0002-1345-7790 tailla cristina de oliveira de oliveira de oliveira-https:// -sigwalt https://orcid.org/0000-0002-9899-5493 Fernando Issamu taboboshi-https://orcid.org/00000000-0002-3150-2164 Leonaldo Wanderloff Franco-https https://orcid.org/0009-0005-3371-3423 Abdo Imad El Tawil-https://orcid.org/0009-0000-6218-7446 Osvaldo Malafaia-https://orcid.org/0000-0002-1829-7071 Correspondence Marcos Fabiano Sigwalt Email: marcosigwalt@yahoo.com.br利益冲突:无融资:无图像
