foucaud等。[ICALP 2024]证明,当通过treewidth或顶点覆盖号参数化时,NP中的某些问题可以接受(紧密)双向指数下限。他们通过证明某些图形问题的条件下限,尤其是基于度量的识别问题(强)度量方面,展示了这些第一届的结果。我们继续进行这一研究,并强调了这种类型的问题的有用性,以证明(紧密)下限相对较少的类型。我们研究了图表中经典(基于非中线的)识别问题的细粒算法方面,即定位键合集合和集合系统,即测试盖。在第一个问题中,输入是n顶点上的图形g和整数k,目的是确定是否存在K顶点的子集S子集S子集S,以便S s中的任何两个不同的顶点在s中的任何两个不同的顶点都由s的不同子集主导。在第二个问题中,输入是一组u,u的子集f的集合和整数k,目标是在大多数k测试中选择一个集合s,以便在s的不同测试中包含任何两个不同的项目。对于我们的第一个结果,我们适应了Foucaud等人引入的技术。[ICALP 2024]证明这两个问题相似(紧密)的下限。
神经辐射场(NERFS)是场景,物体和人类的有希望的3D代表。但是,大多数措施方法都需要多视图输入和每场培训,这限制了其现实生活中的应用。此外,熟练的方法集中在单个受试者的情况下,留下涉及严重障碍和挑战性视图变化的互动手的场景。为了解决这些问题,本文提出了一个可见的可见性 - 可见性的NERF(VA-NERF)框架,用于互动。具体来说,给定相互作用的手作为输入的图像,我们的VA-NERF首先获得了基于网格的手表示,并提取了相应的几何和质地。随后,引入了一个功能融合模块,该模块利用了查询点和网格顶点的可见性,以适应双手的特征,从而可以在看不见的区域的功能中进行重新处理。此外,我们的VA-NERF与广告学习范式中的新型歧视者一起进行了优化。与传统的分离器相反,该官员预测合成图像的单个真实/假标签,提议的判别器生成了一个像素的可见性图,为看不见的区域提供了精细的监督,并鼓励VA-NERF提高合成图像的视觉质量。互惠2.6m数据集的实验表明,我们所提出的vanerf的表现明显优于常规的nerfs。项目页面:https://github.com/xuanhuang0/vanerf。
摘要。全脑分割是将整个脑体积划分为解剖标记的感兴趣区域 (ROI),是脑图像分析中的关键步骤。传统方法通常依赖于复杂的管道,这些管道虽然准确,但由于其复杂性而耗时且需要专业知识。或者,端到端深度学习方法提供快速的全脑分割,但通常会由于忽略几何特征而牺牲准确性。在本文中,我们提出了一种新颖的框架,将以前由复杂的基于表面的管道使用但被基于体积的方法忽略的关键曲率特征集成到深度神经网络中,从而实现高精度和高效率。具体而言,我们首先训练一个粗略的解剖分割模型,重点关注高对比度组织类型,即白质 (WM)、灰质 (GM) 和皮层下区域。接下来,我们使用 WM/GM 接口重建皮质表面,并计算表面上每个顶点的曲率特征。然后将这些曲率特征映射回图像空间,在那里它们与强度特征相结合以训练更精细的皮质分割模型。我们还简化了皮质表面重建和曲率计算的过程,从而提高了框架的整体效率。此外,我们的框架非常灵活,可以将任何神经网络作为其主干。它可以作为即插即用组件来增强任何分割网络的全脑分割结果。在公共 Mindboggle-101 数据集上的实验结果表明,与各种深度学习方法相比,分割性能有所提高,速度相当。
术语应变表示力下的尺寸或变形变化。在超声心动图中使用时,“应变”一词用于描述通过心脏周期缩短,增厚和延长心肌的大小。最常见的心肌应变度量是长轴中左心室(LV)的变形,称为全局纵向应变(GLS)。应变是组织变形(L – L0)/L0的无量纲度量,其中L是最终长度,L0是原始长度;正值表示延长,负值表示缩短。[1]在收缩期间,心室心肌纤维从底部到顶点的运动缩短。gls用作全局LV函数的度量,并为每个LV段提供了定量的心肌变形分析。心肌菌株成像旨在检测保留的LV射血分数(LVEF)患者的左心室功能的亚临床变化,从而可以尽早发现收缩功能障碍。由于应变成像可以比标准方法更早地识别LV功能障碍,因此在患者患有症状和不可逆的心肌功能障碍之前,这会提高预防心力衰竭的可能性和原发性预防。斑点跟踪超声心动图(Ste)的潜在应用是冠状动脉疾病,缺血性心肌病,瓣膜心脏病,扩张心肌病,肥厚性心肌病,应激性心肌疗法,心肌性心肌病和化学疗法相关的心脏毒素相关性。
图 4 表面网格细化对减少缺失体素数量的影响。(a)体积到表面投影示意图。方块表示体积空间中的体素。黄色方块表示分配给网格顶点的体素。灰色方块表示由于顶点间距粗而未投影到任何网格顶点上的缺失体素。三角形表示表面网格的面。蓝点表示原始表面中的顶点。紫点表示通过表面细化添加的顶点。随着在细化过程中将顶点添加到表面,更多的体素被分配给顶点,从而减少了缺失体素的数量。(b)使用原始表面时缺失的体素,这些体素是通过增加表面细化的迭代次数而捕获的。放大的视图显示了距状沟内的示例表面(黑色轮廓)。颜色表示唯一体素索引。随着表面网格的细化,表面投影中包含了更多唯一体素。 (c)随着表面网格逐渐细化,独特 fMRI 体素的数量。随着每次细化迭代,包含的独特体素数量稳步增加,在四次细化迭代后出现稳定状态。虚线表示每个受试者(N = 3)的值;条形图显示受试者的平均值
本文考虑了4轮Keccak -224/256/384/512在量子环境下的抗原像性。为了有效地找到原像的旋转对应项对应的旋转数,我们首先建立一个基于Grover搜索的概率算法,利用某些坐标上比特对的固定关系来猜测可能的旋转数。这致力于实现每次搜索旋转对应项的迭代只包含一次用于验证的4轮Keccak变体运行,这可以降低量子环境下的攻击复杂度。在可接受的随机性下寻找旋转数的基础上,我们构建了两种攻击模型,专注于原像的恢复。在第一个模型中,Grover算法用于寻找原像的旋转对应项。通过64次尝试,可以获得所需的原像。在第二个模型中,我们将寻找旋转对应体抽象为在超立方体上寻找顶点,然后使用SKW量子算法来处理寻找作为旋转对应体的顶点的问题。对轮数减少的Keccak进行量子原像攻击的结果表明,第一个攻击模型对于4轮Keccak -224/256/384/512优于一般的量子原像攻击,而第二个模型对于4轮Keccak -512/384的攻击效果略低但更实用,即该模型比我们的第一个攻击模型和一般的量子原像攻击更容易在量子电路中实现。
摘要。有关木本植物密度 (WPD) 的信息对于评估半干旱地区的土地利用、气候变化和气候变化的影响非常重要。博茨瓦纳以前的研究使用视觉方法,借助 40 倍放大倍数的便携式显微镜,根据航空照片上木本植物阴影顶点的数量估算 WPD。本研究调查了使用此程序建立的定量木本植物数据的可靠性。调查重点关注视觉数据的一致性、照片和基于现场的 WPD 的关系、不同照片尺度和胶片类型的影响以及数据在确定随时间变化的趋势方面的可靠性。结果表明,同一观察者在不同时期对木本植物数量 (WPC) 的改变在 95% 的概率水平上不具有统计学意义。地面和基于照片的 WPD 之间建立了相对较强的关系,对于以树木和灌木层为主的站点,R 2 = 0.74:P < 0.05 和 R 2 = 0.62:P < 0.05。不同的照片尺度和胶片类型导致 WPC 存在统计上的显著差异,但通过将数据标准化为单一基础尺度和胶片类型,可以将这些差异最小化。来自不同尺度和胶片类型的标准化多日期 WPD 数据显示该地区的景观和土地利用变化趋势一致。这项研究表明,经过校准的低成本基于视觉的地理空间数据分析方法可以提供所需的信息,以详细评估半干旱地区植被结构因土地利用和所指示的气候变化而发生的变化。关键词:航空照片、树冠阴影、照片比例、胶片类型、半干旱地区、目视计数、木本植物密度
成人双胞胎神经影像学研究表明,皮质厚度(CT)和表面积(SA)受遗传信息的差异影响,导致其空间上不同的遗传模式和地形。然而,鉴于新生儿到成年人的显着皮质发育,CT和SA遗传形态的产后起源尚不清楚。为了填补这一关键的空白,这项研究始终探讨了遗传信息如何通过利用来自202个双胞胎新生儿的脑磁共振(MR)图像来差异调节CT和SA在新生儿大脑中的空间拓扑,而复杂的后环境环境因素具有最小的影响。我们利用了婴儿使用的计算工具和数据驱动的光谱聚类方法,将脑皮质构成纯粹的区域,纯粹根据CT和SA的皮质顶点的遗传相关性,并因此创建了第一个基因知情的Cortalical Parcellatial parcellatial neonatal neonatal saps saps braps braps of CT和SA的遗传相关性。两个遗传细胞图均表现出双侧对称性和分层模式,但具有不同的空间布局。对于CT,具有更紧密的遗传关系的区域表现出一个替代验(A-P)分裂,而对于SA,具有较大遗传接近的区域通常在同一叶中。某些遗传知情的区域在新生儿和成年人之间表现出很强的相似性,尽管SA的内侧表面上的相似性最为惊人,尽管它们在遗传细胞图中的总体差异总体差异。这些结果极大地提高了我们对遗传影响对皮质形态空间图案的发展的理解。
许多重要的算法都证明了量子计算机相对于传统计算机的优势,特别是用于因式分解的 Shor 算法 [1] 和用于搜索的 Grover 算法 [2]。这些算法基于协调简单量子门的离散操作。这类算法称为量子电路算法 [3]。在量子计算的另一个范例中,算法是通过设计汉密尔顿量来实现的。在这里,我们从一个易于准备的初始状态开始,让它动态演变,并在某个时刻进行适当的测量。(当然,汉密尔顿量应该对应于可能实现的电路。)基于汉密尔顿量的量子算法将编程问题转化为物理问题,这使得人们可以利用熟悉的物理过程来优化算法。1998 年提出了一种用于量子搜索的汉密尔顿方法 [4],并很快扩展到更一般的“绝热”算法 [5]。已经证明,每个量子电路算法都可以转换成量子绝热算法,其时间复杂度是多项式等价的(反之亦然)[6,7]。但连续方法可以提出不同的方法,比如这里讨论的非阿贝尔混合,或者我们将在其他地方描述的共振[8]。这里我们提出了一种针对独立集问题的有效量子汉密尔顿算法(见图1)。任何图都有平凡的独立集:空集和只有一个顶点的集。我们的目标是找到非平凡的独立集,有两个或理想情况下更多顶点。独立集问题可以用全否定2可满足性(2-SAT)问题来重新表述,反之亦然。基于此
b'We考虑了确定有向图中的根和全局边缘和顶点连接性(以及计算相应切割)的基本问题。对于具有小整数功能的根(以及全局)边缘连接,我们给出了一种新的随机蒙特卡洛算法,该算法在时间\ xcb \ x9c o n 2中运行。对于根边连接性,这是第一个在密度高图高连续性方向上绑定的\ xe2 \ x84 \ xa6(n 3)时间上改进的算法。我们的结果依赖于采样的简单组合以及显得新颖的稀疏性,并且可能导致有向图连接问题的进一步权衡。我们将边缘连接想法扩展到有向图中的根和全局顶点连接。我们获得了\ xcb \ x9c o(nw/\ xcf \ xb5)中的根顶点连接的(1 + \ xcf \ xb5) - approximation,其中w是w是总顶点的重量的时间(假设Integral verterx werges flovex wevertex weivers apteral vertex weivers witteral wittex weivers w we特别地,这会产生一个\ xcb \ x9c o n 2 /\ xcf \ xb5时间随机算法的未加权图。这转化为\ xcb \ x9c o(\ xce \ xbanw)时间精确算法,其中\ xce \ xba是根的连接。我们以此为基础为全局顶点连接获得类似的范围。我们的结果补充了由于Gabow的工作[8]的1991年边缘连接性工作以及Nanongkai等人的最新工作,因此在低连通性方面的这些问题的已知结果。[23]和Forster等。[6]用于顶点连接。