扩散模型从噪声中创建数据(Song等,2020)。他们经过训练,可以将数据的向前路径逆转到随机噪声,因此,可以使用神经网络的近似和泛化特性,可用于生成训练数据中不存在的新数据点,但遵循训练数据的分布(Sohl-Dickstein等人。,2015年; Song&Eron,2020)。这种生成建模技术已被证明非常有效地对高维,感知数据(例如图像)进行建模(Ho等人,2020)。近年来,扩散模型已成为产生具有令人印象深刻概括能力的自然语言输入的高分辨率图像和视频的事实方法(Saharia等人,2022b; Ramesh等。,2022; Rombach等。,2022; Podell等。,2023; Dai等。,2023; Esser等。,2023; Blattmann等。,2023b; Betker等。,2023; Blattmann等。,2023a; Singer等。,2022)。由于其迭代性质和相关的计算成本以及推理期间的较长采样时间,对这些模型进行更多有效训练的制剂的研究和/或更快的采样速度有所增加(Karras等人,2023;刘等。,2022)。
通过功能磁共振成像(fMRI)记录的神经反应解码视觉刺激(FMRI)呈现出认知神经科学和机器学习之间的有趣相交,这是理解人类视觉感知的有希望的进步。然而,由于fMRI信号的嘈杂和脑视觉表示的复杂模式,任务是具有挑战性的。为了减轻这些挑战,我们引入了两个阶段fMRI表示框架。第一阶段预训练fMRI功能学习者,其提议的双对抗性掩码自动编码器可以学习DENOCORED表示。第二阶段调谐功能学习者,以通过图像自动编码器的指导来了解视觉重建最有用的神经激活模式。优化的FMRI功能学习者然后调节了一个潜在扩散模型,以重建大脑活动的图像刺激。实验结果证明了我们的模型在产生高分辨率和语义准确的图像方面的优势,从39中实质上超过了先前的最新方法。在50道路-TOP-1语义分类精度中的34%。代码实现将在https://github.com/soinx0629/vis_dec_neurips/上提供。
抽象的信念 - 意外 - 意见(BDI)代理是一种受欢迎的代理体系结构。我们扩展了具有高级功能(例如恢复失败和声明性目标)的BDI编程语言的概念代理表示法(CAN),包括概率行动成果,例如反映失败的执行器和概率政策,例如用于概率计划和意图选择。该扩展名是在米尔纳的Bigraphs中编码的。通过应用我们的BigRapher工具和Prism模型检查器,可以研究和比较在不同的概率结果和计划/事件/意图选择策略下成功的可能性(意图完成)。我们提出了一个智能的制造用例。一个显着的结果是,与意图选择相比,计划选择的效果有限。我们还看到,动作失败的影响可能是边缘的,即使失败概率很大,也可以对代理做出更明智的选择。
TEM 是研究电子设备纳米级特征的重要工具。TEM 基于散射的对比度在确定材料的物理结构方面表现出色,并且通过 EDS 和 EELS 等光谱附件可以精确确定设备中原子的组成和排列。结合原位功能,TEM 可以精确映射设备在运行和缺陷形成过程中的物理结构变化。但是,在许多情况下,设备的功能或故障是小规模电子变化的结果,这些变化在变化成为病态之前不会呈现为可检测的物理信号。为了在 TEM 中检测这些电子变化,必须采用与电子结构直接相关的对比度的互补成像。在 TEM 中获得电子对比度的一项技术是电子束感应电流 (EBIC) 成像,其中由光束在样品中产生的电流在 STEM 中逐像素映射。自 20 世纪 60 年代以来 [1],EBIC 电流产生的“标准”模式是在局部电场中分离电子-空穴对 (EHP)。最近,展示了一种新的 EBIC 模式,其中电流由束流诱导二次电子 (SE) 发射在样品中产生的空穴产生[2]。这种 SE 发射 EBIC (SEEBIC) 模式不需要局部电场的存在,通常比标准 EBIC 的电流小得多,并且能够实现更高分辨率的成像[3]。在基于 TEM 的技术中,SEEBIC 独一无二,还能产生与样品中局部电导率直接相关的对比度[4],即使在操作设备中也是如此[5]。在这里,我们讨论了 STEM EBIC 电导率映射技术,并提供了它在被动成像和原位实验中的几个应用示例。图 1 显示了 SEEBIC 电阻映射的简单演示。该设备由一条 GeSbTe(GST)条带组成,该条带横跨两个在薄 SiN 膜上图案化的 TiN 电极。图 1 中的 STEM EBIC 图像包含标准 EBIC 和 SEEBIC 对比度。如图所示,当电子束入射到 TiN/GST 界面时,肖特基势垒处的电场将 EHP 分开,空穴在每个界面处朝 GST 移动,在连接到 EBIC 放大器的右侧电极上产生暗对比度,在接地的左侧电极上也产生暗对比度。在这些界面之外,SEEBIC 对比度与左侧(接地)电极的电阻成正比 [4]。靠近 EBIC 电极(即,与接地电极相比,EBIC 电极的电阻更小)的 SE 发射产生的空穴更有可能通过该电极到达地,从而产生更亮的(空穴)电流。 SEEBIC 在右侧(EBIC)电极上最亮,由于非晶态GST的电阻率均匀,SEEBIC 在整个GST条带上稳定减小,在左侧电极上最暗[6]。
从人类大脑活动中重建视觉体验提供了一种独特的方式来理解大脑如何表征世界,并解释计算机视觉模型和我们的视觉系统之间的联系。虽然深度生成模型最近已被用于这项任务,但重建具有高语义保真度的真实图像仍然是一个具有挑战性的问题。在这里,我们提出了一种基于扩散模型 (DM) 的新方法来重建通过功能性磁共振成像 (fMRI) 获得的人脑活动图像。更具体地说,我们依赖于称为稳定扩散的潜在扩散模型 (LDM)。该模型降低了 DM 的计算成本,同时保留了其高生成性能。我们还通过研究 LDM 的不同组成部分(例如图像 Z 的潜在向量、条件输入 C 和去噪 U-Net 的不同元素)与不同大脑功能的关系来描述 LDM 的内部机制。我们证明了我们提出的方法可以重建高分辨率图像,保真度高,直
背景:对接受深部脑刺激 (DBS) 的患者进行组分析有助于理解和优化运动障碍患者的治疗。概率刺激图 (PSM) 通常用于分析组织刺激与症状效果之间的相关性,但应用的方法不同。目的:计算特定于组的 MRI 模板和 PSM,以研究 PSM 模型参数的影响。方法:分析了 68 名植入尾部未定带的特发性震颤患者的头晕改善和发生情况。输入数据包括每个电极接触的最佳参数(筛选)和临床使用的设置。针对所有 DBS 设置计算了特定于患者的电场模拟(n = 488)。将电场转换为特定于组的 MRI 模板以进行分析和可视化。不同的比较基于表示发生率 (N-map)、平均改善 (M-map)、加权平均改善 (wM-map) 和体素 t 统计量 (p-map) 的 PSM。这些图用于研究输入数据 (临床/筛查设置)、聚类方法、采样分辨率和加权函数的影响。结果:筛查或临床环境对 PSM 的影响最大。wM-map 的平均差异分别为左侧和右侧的 12.4 和 18.2%。基于 wM-map 或 p-map 提取的簇显示体积有显著变化,而定位相似。加权函数对 PSM 的影响很小,除了 wM-map 簇的定位明显发生变化。结论:在创建 PSM 以研究解剖学和 DBS 结果之间的关系时,输入数据的分布和聚类方法是最重要的考虑因素。© 2022 作者。由 Elsevier Inc. 出版。这是一篇根据 CC BY 许可 ( http://creativecommons.org/licenses/by/4.0/ ) 开放获取的文章。
约三分之一的癫痫对药物有抵抗力。对于这些患者,可以通过手术切除致痫区 (EZ)(大脑中引起癫痫发作的部分)来减少或治愈癫痫发作。如果非侵入性数据不足以确定侧向或定位,则可能需要通过精确植入颅内脑电图 (iEEG) 电极来定位致痫区。iEEG 目标的选择受到临床医生的经验和对文献的个人了解的影响,这导致不同癫痫中心的植入策略存在很大差异。基于文献中报告的回顾性临床病例的结果,客观工具可以建议致痫区的位置,从而支持和标准化手术计划的临床诊断途径。我们提出了一个开源软件工具,为临床医生提供直观的数据驱动可视化,以推断可能与致痫区重叠的致病区的位置。可能的 EZ 表示为覆盖在患者图像上的概率图,给出在该特定患者中观察到的癫痫症状列表。我们展示了一个案例研究,该研究基于我们单位接受治疗的一名患者的回顾性数据,该患者接受了切除性癫痫手术,并在术后 1 年内没有癫痫发作。被识别为 EZ 位置的切除脑结构与我们工具突出显示的区域重叠,证明了其潜在效用。
Fisher分布由于其尖峰厚尾的特点以及理论合理性和数学易处理性而成为高分辨率合成孔径雷达(SAR)图像的流行模型。基于SAR图像的Fisher建模,提出了最大后验(MAP)滤波器。在Fisher模型中,图像外观参数被认为是固定的以对应于多视强度图像的形成机制,而其他两个参数则基于第二类统计数据从SAR图像中准确估计出来。为了改进Fisher MAP滤波器特别是在斑点抑制方面,利用点目标检测、自适应加窗方法、均质区域检测和最均匀子窗口选择,提出了基于结构信息识别的Fisher MAP滤波器。高分辨率SAR图像去斑点实验表明,基于结构信息检测的改进Fisher MAP滤波器能够抑制均质区域和边缘区域的斑点,有效保留细节、边缘和点目标。
3 The Bayesian Network Representation 45 3.1 Exploiting Independence Properties 45 3.1.1 Independent Random Variables 45 3.1.2 The Conditional Parameterization 46 3.1.3 The Naive Bayes Model 48 3.2 Bayesian Networks 51 3.2.1 The Student Example Revisited 52 3.2.2 Basic Independencies in Bayesian Networks 56 3.2.3 Graphs and Distributions 60 3.3 Independencies in Graphs 68 3.3.1 D-separation 69 3.3.2 Soundness and Completeness 72 3.3.3 An Algorithm for d-Separation 74 3.3.4 I-Equivalence 76 3.4 From Distributions to Graphs 78 3.4.1 Minimal I-Maps 79 3.4.2 Perfect Maps 81 3.4.3 Finding Perfect Maps ⋆ 83 3.5 Summary 92 3.6 Relevant Literature 93 3.7 Exercises 96