背景:宫颈癌仍然是全球女性死亡率的主要原因,淋巴结转移(LNM)是患者预后的关键决定因素。方法:在这项研究中,分析了2018年1月至2024年1月期间153例宫颈癌患者的MRI扫描。将患者分为两组:103培训队列; 49在验证队列中。放射线特征。ITK-SNAP软件启用了宫颈癌肿瘤区域的三维手动分割,以识别目标区域(ROI)。收集的数据被划分为支持向量机(SVM)模型的培训和验证。结果:基于T2WI和ADC的组合放射线学模型表现出强大的诊断能力,在训练队列中达到曲线下的面积为0.804(95%CI [0.712-0.890]),AUC中的AUC和0.811(95%CI [0.721-0.921-0.902] in act in the训练队伍中的AUC中。包括放射线特征,国际妇科和妇产科联盟(FIGO)阶段和LNM在培训队列中的C-INDEX为0.895(95%CI [0.821-0.962]),在培训队列中的C-指数为0.895(95%CI [0.821-0.962]),在C-INDEX中为0.916(95%CI [0.825-0.987] Intaliatation in nor图)的C-指数为0.895(95%CI [0.821-0.962]),C培训队列中的C-INDEX为0.916(0.916(95%CI)(95%CI [0.825-0.987] Intalians Intecration。C统计数据均高于0.80,并且预测变量几乎与45度线一致,这与校准图中显示的结果一致。这表明我们的模型表现出良好的歧视能力和令人满意的校准。关键词:MRI,放射素学,淋巴结,转移,宫颈癌结论:利用T2WI与ADC地图相结合的MRI放射素学模型,提供了一种预测宫颈癌患者LNM的有效方法。
缩写:ACEI/ARB,血管紧张素转换酶抑制剂/血管紧张素受体阻滞剂; ami,急性心肌梗塞; BMI,体重指数(计算为重量为千克,除以米平方的高度); CAD,冠状动脉疾病; CM,心肌病; GLS,全球纵向应变; HF,心力衰竭; HL,Hosmer-Lemeshow; ICD,国际疾病分类; LVEF,左心室射血分数;狼牙棒,主要不良心血管事件; NYHA,纽约心脏协会; TIA,短暂的缺血发作。
。CC-BY-NC 4.0国际许可证的永久性。根据作者/资助者,它是根据预印本提供的(未经同行评审的认证),他已授予Biorxiv的许可证,以在
1 1 CA 2 2定量科学部,斯坦福大学医学系,医学系2个定量科学部门,医学系,斯坦福大学医学院,加利福尼亚州斯坦福大学,加利福尼亚州斯坦福大学3 Lifelink Foundation,Norcross,GA 4 Lifegift Organforment组织,Houston,Houston,TX 5加利福尼亚大学旧金山分校,旧金山分校,沃尔瑟姆,马萨诸塞州沃尔瑟姆,马萨诸塞州沃尔瑟姆8分司,加利福尼亚州旧金山大学,加利福尼亚州9 9,威斯康星大学医学院和公共卫生学院,威斯康星州麦迪逊分校,麦迪逊10号手术系,外科手术系,创伤部,重症监护室,重症监护室和急诊室,俄勒冈州健康和科学大学,俄勒冈州港口,俄勒冈州北部北部研究部,1 CA 2 2定量科学部,斯坦福大学医学系,医学系2个定量科学部门,医学系,斯坦福大学医学院,加利福尼亚州斯坦福大学,加利福尼亚州斯坦福大学3 Lifelink Foundation,Norcross,GA 4 Lifegift Organforment组织,Houston,Houston,TX 5加利福尼亚大学旧金山分校,旧金山分校,沃尔瑟姆,马萨诸塞州沃尔瑟姆,马萨诸塞州沃尔瑟姆8分司,加利福尼亚州旧金山大学,加利福尼亚州9 9,威斯康星大学医学院和公共卫生学院,威斯康星州麦迪逊分校,麦迪逊10号手术系,外科手术系,创伤部,重症监护室,重症监护室和急诊室,俄勒冈州健康和科学大学,俄勒冈州港口,俄勒冈州北部北部研究部,CA 2 2定量科学部,斯坦福大学医学系,医学系2个定量科学部门,医学系,斯坦福大学医学院,加利福尼亚州斯坦福大学,加利福尼亚州斯坦福大学3 Lifelink Foundation,Norcross,GA 4 Lifegift Organforment组织,Houston,Houston,TX 5加利福尼亚大学旧金山分校,旧金山分校,沃尔瑟姆,马萨诸塞州沃尔瑟姆,马萨诸塞州沃尔瑟姆8分司,加利福尼亚州旧金山大学,加利福尼亚州9 9,威斯康星大学医学院和公共卫生学院,威斯康星州麦迪逊分校,麦迪逊10号手术系,外科手术系,创伤部,重症监护室,重症监护室和急诊室,俄勒冈州健康和科学大学,俄勒冈州港口,俄勒冈州北部北部研究部,CA 2 2定量科学部,斯坦福大学医学系,医学系2个定量科学部门,医学系,斯坦福大学医学院,加利福尼亚州斯坦福大学,加利福尼亚州斯坦福大学3 Lifelink Foundation,Norcross,GA 4 Lifegift Organforment组织,Houston,Houston,TX 5加利福尼亚大学旧金山分校,旧金山分校,沃尔瑟姆,马萨诸塞州沃尔瑟姆,马萨诸塞州沃尔瑟姆8分司,加利福尼亚州旧金山大学,加利福尼亚州9 9,威斯康星大学医学院和公共卫生学院,威斯康星州麦迪逊分校,麦迪逊10号手术系,外科手术系,创伤部,重症监护室,重症监护室和急诊室,俄勒冈州健康和科学大学,俄勒冈州港口,俄勒冈州北部北部研究部,CA 2 2定量科学部,斯坦福大学医学系,医学系2个定量科学部门,医学系,斯坦福大学医学院,加利福尼亚州斯坦福大学,加利福尼亚州斯坦福大学3 Lifelink Foundation,Norcross,GA 4 Lifegift Organforment组织,Houston,Houston,TX 5加利福尼亚大学旧金山分校,旧金山分校,沃尔瑟姆,马萨诸塞州沃尔瑟姆,马萨诸塞州沃尔瑟姆8分司,加利福尼亚州旧金山大学,加利福尼亚州9 9,威斯康星大学医学院和公共卫生学院,威斯康星州麦迪逊分校,麦迪逊10号手术系,外科手术系,创伤部,重症监护室,重症监护室和急诊室,俄勒冈州健康和科学大学,俄勒冈州港口,俄勒冈州北部北部研究部,CA 2 2定量科学部,斯坦福大学医学系,医学系2个定量科学部门,医学系,斯坦福大学医学院,加利福尼亚州斯坦福大学,加利福尼亚州斯坦福大学3 Lifelink Foundation,Norcross,GA 4 Lifegift Organforment组织,Houston,Houston,TX 5加利福尼亚大学旧金山分校,旧金山分校,沃尔瑟姆,马萨诸塞州沃尔瑟姆,马萨诸塞州沃尔瑟姆8分司,加利福尼亚州旧金山大学,加利福尼亚州9 9,威斯康星大学医学院和公共卫生学院,威斯康星州麦迪逊分校,麦迪逊10号手术系,外科手术系,创伤部,重症监护室,重症监护室和急诊室,俄勒冈州健康和科学大学,俄勒冈州港口,俄勒冈州北部北部研究部,
根据给定序列预测人体运动是计算机视觉和机器学习中一项具有挑战性且至关重要的任务,它使机器能够有效地理解人类行为。精确预测人体姿势和运动轨迹对于各种应用都具有重要意义,包括自动驾驶、机器人技术和虚拟现实。本文提出了一种新方法来解决估计以 3D 姿势或 2D 轨迹表示的人体运动,以及使用 2D 图像和人体姿势/位置序列联合预测未来运动的相互关联的任务。我们提出了一种编码器-解码器架构,该架构利用具有自注意机制的 Transformer 网络,利用视觉上下文特征,结合 LSTM 来建模人体运动运动学。我们的方法在数量和质量上都比现有方法表现出持续显著的改进。在各种公共数据集上进行的大量实验,例如用于 3D 人体姿势估计的 GTA-IM 和 PROX,以及用于 2D 轨迹预测的 ETH 和 UCY 组合数据集,表明与当前最先进的方法相比,我们的方法大大减少了预测误差。
深度预测是几种计算机视觉应用程序的核心,例如自动驾驶和机器人技术。通常将其作为回归任务进行表达,其中通过网络层估算深度阀。不幸的是,很少探索深度图上值的分布。因此,本文提出了一个新颖的框架,结合了对比度学习和深度预测,使我们能够更加关注深度分布,从而对整体估计过程进行改进。有意地提出了一个基于窗口的对比学习模块,该模块将特征映射划分为非重叠的窗口,并在每个窗口内构造对比损失。形成和排序正面和负对,然后在代表空间中扩大两者之间的间隙,约束深度分布以适合深度图的特征。对Kitti和NYU数据集的实验证明了我们框架的有效性。
©作者2024。Open Access本文是根据Creative Commons Attribution 4.0 International许可获得许可的,该许可允许以任何媒介或格式使用,共享,适应,分发和复制,只要您对原始作者和来源提供适当的信誉,请提供与创意共享许可证的链接,并指出是否进行了更改。本文中的图像或其他第三方材料包含在文章的创意共享许可中,除非在信用额度中另有说明。如果本文的创意共享许可中未包含材料,并且您的预期用途不受法定法规的允许或超过允许的用途,则您需要直接从版权所有者那里获得许可。要查看此许可证的副本,请访问http://creativecommons.org/licenses/4.0/。Creative Commons公共领域奉献豁免(http://creativecommons.org/publicdomain/zero/zero/1.0/)适用于本文中提供的数据,除非在信用额度中另有说明。
研究人员正在探索人类在识别和区分计算机化目的的情绪方面的出色技能。尽管面部情绪预测具有广泛的实际应用,但由于其对主观因素的依赖,它仍然是一个充满挑战的研究领域。尽管年龄和阻塞,但在本研究中提出了平衡所有基本面部情绪的预测方法。利用合奏分类器的实时面部情感预测的方法,将深CNN模型纳入了主要的基本分类器,同时解决了不平衡数据集的问题。通过图像扩展方法,CK+和JAFFE数据集可以合成增强。在2级使用多数和相对投票技术组合的元分类剂,以提高单个情绪的精度。使用Internet随机选择的面部表达图像对所提出的方法进行了测试,证明了总体准确性提高。此外,使用拟议的集合融合方法,对FER2013数据集进行了交叉验证。