逆问题在许多领域都普遍存在,在医学成像[20,26],计算摄影[28,38]和地球物理学中的地震成像等领域具有重大应用[19,45]。尤其是,反问题的目的是从损坏的测量y中恢复原始信号x,这是由正向操作/测量aψ(·)生成的。逆问题通常根据ψ的可用性分为两个主要类别:非盲和盲逆问题。非盲逆问题已知已知ψ。相比之下,当ψ是未知的,需要同时提出ψ和x时,会出现盲目反对问题,这会带来更大的挑战。逆问题本质上是不适合的,通常很大程度上依赖数据先验P(X)进行准确的计算。重新说,扩散模型(DMS)已成为解决反问题的功能工具,因为它们的重新捕获复杂数据分布p(x)[9,10,13,34]。一种直接的方法来利用DMS解决反问题,涉及培训一个有条件的DM,通过监督学习直接估计后p(x | y)。但是,此方法可以是构成密集的,因为它需要为每个不同的测量操作员A单独训练DMS。为了克服这一局限性,最近的工作集中在利用预先训练的,未条件的DMS来估计先前的p(x),从而绕开了对其他模型训练的需求。在这种方法中,DMS提供的先前的P(X)与可能性P(Y | X)结合起来,以在反问题中的后验分布中采样。这些方法依赖于近似可能的项p(y | x),因为它在分析上是棘手的[9,34]。尽管如此,文献中提出的大多数逆问题解决者严格限于已知和固定测量算子Aψ的情况[9,34]。为了解决这个问题,我们提出了CL-DPS,这是一种基于C型收入来通过D iffusion p osterior s放大来解决盲逆问题的方法。具体来说,在CL-DPS中,首先使用修改版的Moco [16](一种对比度学习(CL)技术)对辅助深神经网络(DNN)进行训练。这种辅助DNN的作用是估计可能性p(y | x)的可能性,而不知道测量值Aψ。然后,在解决反问题的过程中,我们使用此辅助DNN进行推断以估计P(Y | X),然后将其用于调整扩散过程的反向路径。为了进一步提高辅助DNN在估计p(y | x)方面的准确性,我们引入了一种新颖的在推理阶段,将图像分为斑块。为了评估Cl-DPS的有效性,我们进行了Ex-
解释无机成分深度分布以了解气相渗透过程中的限速步骤 Shuaib A. Balogun 1、Yi Ren 2、Ryan P. Lively 2 和 Mark D. Losego 1,* 1 佐治亚理工学院材料科学与工程学院,美国佐治亚州亚特兰大 2 佐治亚理工学院化学与生物分子工程学院,美国佐治亚州亚特兰大 *电子邮件:losego@gatech.edu 摘要 气相渗透 (VPI) 是一种聚合后改性技术,它将无机物注入聚合物中以创建具有新性能的有机-无机杂化材料。关于 VPI 工艺背后的化学动力学,我们仍有许多未解之谜。本研究的目的是更好地了解控制三甲基铝 (TMA) 和 TiCl 4 渗透到 PMMA 中形成无机-PMMA 杂化材料的工艺动力学。为了获得深刻见解,本文首先研究了根据最近提出的 VPI 反应扩散模型计算出的无机物时空浓度的预测结果。该模型深入了解了材料从聚合物转变为混合物时产生的 Damköhler 数(反应与扩散速率)和非 Fickian 扩散过程(阻碍)如何影响无机浓度深度剖面随时间的变化。随后,收集了 90 °C 和 135 °C 下 TMA 和 TiCl 4 渗透 PMMA 薄膜的实验性 XPS 深度剖面。将这些深度剖面在不同渗透时间下的功能行为与各种计算预测进行定性比较,并得出关于每个过程机制的结论。对于本文研究的薄膜厚度(200 nm),TMA 渗透到 PMMA 中似乎从低温(90 °C)下的扩散限制过程转变为高温(135 °C)下的反应限制过程。 TMA 似乎可以在几个小时内完全渗透这些 200 nm 的 PMMA 薄膜,但 TiCl 4 渗透到 PMMA 中的速度要慢得多,即使在前体暴露 2 天后也未完全饱和。90 °C 下的渗透速度非常慢,无法得出有关机理的明确结论;然而,在 135 °C 下,TiCl 4 渗透到 PMMA 中显然是一个反应限制过程,TiCl 4 仅需几分钟即可渗透整个厚度(低浓度),但无机负载在 2 天内以均匀的方式持续增加。近表面与反应限制过程预期的均匀负载的偏差也表明 TiCl 4 渗透到 PMMA 中的扩散阻碍很大。这些结果展示了一种新的非原位分析方法,用于研究气相渗透的限速过程机制。
I. 简介 许多研究人员已经基于多孔弹性构建了脑积水的计算理论。此类模型将有助于更好地理解问题,从而提供更好的治疗方法。此类模型还忽略了分流术的间歇性影响,而分流术是治疗脑积水最常用的方法。我们使用弹性和流体力学来创建人脑和脑室系统的数学模型。我们的模型通过考虑跨导水管的流动并包括边界约束来扩展以前的工作。这将为疾病的边界和改善创建一个定量模型。我们开发并解决了该模型的控制方程和边界条件以及有意义的临床发现。我们的模型通过将导水管流与边界约束结合起来,扩展了早期对脑积水的研究。脑脊液沿着脊髓周围的蛛网膜下腔向下流动,然后进入颅脑蛛网膜下腔,然而,物理定律很难解释这种流动是如何持续的。采用体内刺激的数学方法来研究脉动血液、脑和脑脊液的动态相互作用 1 。本文介绍的模拟是为患有脑脊液生理病理疾病脑积水的个体生成的 2 。研究特发性脑积水化学浓度不对称循环的后脑室通透性 3 。使用基本的几何模型,当前的研究提出了一种全新的脑积水多物理扩散过程方法,并作为更复杂的几何模拟的标准 4 。研究了脑脊液在心血管和蛛网膜下腔的循环以及脑脊液渗入多孔脑实质的问题。开发了复杂大脑几何形状的边界条件 5 。将标准受试者的研究信息与代表颅内动力学的实际计算模型进行了比较。该模型利用特定于受试者的磁共振 (MR) 图像和物理边界条件作为输入,可重现脉动的脑脊液循环并模拟颅内压力和流速 6 。该数值模型用于探索横截面几何形状和脊髓运动如何影响非稳定速度、剪应力和压力梯度场 7 。该系统分为五个子模型:动脉系统血液、静脉系统血液、心室脑脊液、颅内蛛网膜下腔和脊髓出血腔。阻力和顺应性将这些子模型连接起来。构建的模型用于模拟七个健康个体中发现的关键功能特征,例如动脉、静脉和脑脊液流量分布(幅度和相移) 8 。此前,利用时间分辨三维磁共振速度映射研究人体血管系统中健康和异常的血流模式。利用这种方法研究了 40 名健康志愿者 9 的脑室系统中脑脊液流量的时间和空间变化。这些颗粒中的脑脊液和血液之间的屏障很小,使脑脊液能够流入循环并被吸收。与脑脊液的产生相反,消耗是压力-
神经系统污染可能是可以帮助恢复大脑健康的方法的发展(Raj等,2012; Poudel等,2020)。从引入术语Connectome(Sporns等,2005)中,当它的确切结构在很大程度上未知时,直到今天,还进行了一些研究来研究Connectome非常复杂的网络(Bullmore和Sporns,2009)以及其中发生的动态过程(Avena-Koenigsberger等人,2018年)。尤其是人类连接组动力学以多个时间尺度发生,范围从毫秒到几年,并且使用了不同类型的测量设备来捕获它们(Mitra,2007)。这些不同的时间尺度揭示了大脑功能和行为的各个方面。最短的时间量表与功能性脑网络中的快速神经处理和信息交换有关。神经传递和突触通信在这项快节奏的活动中起着至关重要的作用。脑电图(EEG)和磁脑电图(MEG)是捕获这些快速电气信号的选择性技术。在较高的时间尺度上,从秒到几分钟,连接组的动力学与特定任务期间的认知过程和功能连接性变化有关。功能性MRI(fMRI)通常用于研究这些变化。例如,在记忆任务中,某些大脑区域可能表现出增加的功能活动,表明它们参与了记忆网络(Murphy等,2020)。静止状态fMRI用于研究内在的大脑活动,而个人没有执行任何特定的任务。从几分钟到几个小时,连接组的动力学与功能连通性中的静止状态相关(Smitha等,2017)。在较高时间尺度上发生的过程的示例,从几天到几年,学习,记忆巩固过程,大脑发育和认知能力下降。特别是,我们感兴趣的过程是在这些时间尺度上发生的创伤性脑损伤和退化性脑动力学。对于这类疾病,将功能信息与研究结构连接组引起的功能信息集成至关重要,这代表了不同大脑区域之间的解剖联系。扩散张量成像(DTI)和扩散加权成像(DWI)是创建结构连接组的主要常用MRI技术。我们选择使用由DTI和DWI数据产生的连接组,因为有证据表明它参与了神经疾病的传播(Torok等,2018; Weickenmeier等,2019; Wilson等,2023)。然而,重要的是要强调,这项工作中提出的方法独立于一个人决定使用的类型(无论是基于功能,接近性,突触连接还是大脑生理学的其他结构);必须选择最合适的网络以准确描述给定神经病理的传播。越来越多的关于退化性脑疾病的作品(Raj等,2012; Raj等,2015; Pandya等,2019)和创伤性脑损伤(Poudel等,2020)使用网络扩散作为一种有缺乏的和预测的动力学模型。在所有需要建模某种网络动力学的应用中,网络扩散过程(也称为热扩散过程)变得越来越重要。应用程序领域是机器学习最多的,例如(例如,(Hofmann等,2008)和最近的(Stolfif et al。,2023))到网络生物学(请参阅(Carlin等,2017)和
博士论文论文的描述:波兰语中博士学位论文的Piotr Marek Smolnicki标题:流动性现代解决方案与大都会在英语中论文的空间结构之间的关系:jaceksołtys博士论文的第二个发起人*:博士学位论文的辅助促进者*:博士学位论文的科普罗运动*:国防日期:波兰博士学位论文的关键词:自动驾驶汽车,自动驾驶汽车,汽车交通,汽车舍名,骑车,骑车,新移民,公共运输,公共运输,公共运输,公共运输,公共运输,cilban计划,墨西哥群岛。自动驾驶汽车,汽车,MAA,新移动性,运输,公共交通,公共交通,乘车,骑车,骑车,城市规划摘要摘要在波兰语中:论文的起源是关于在媒体和出版物中实施现代实施现代解决方案的积极影响的信息(例如根据需要,共享,自主),但被低估了它们扩散的副作用的威胁,尤其是在大都市中。因此,这是一个研究目标,以便有效地接受新解决方案的扩散过程,以获取新知识。对出版物的分析允许确定知识和提出研究问题的缺点(论文)。在世界各地的专家中以两条曲线进行的Delphic调查中获得了对它们的答案。基于积累的知识,进行了结构分析,从系统地讲大都市:创建其一百个元素(变量)的列表和它们之间的直接关系矩阵。使用MICAC技术,确定了间接关系,这使得能够检测最多的运动变量和研究最重要的关系。表达了两个极端情况:乐观和悲观,这证实了研究论文,包括主要论点,如果不采取适当的步骤,那么现代技术和组织解决方案在移动性中的扩散将导致许多负面的,也导致大都市空间结构中的许多负面,不可逆的副作用。英语论文的摘要:论文的起源是观察到,媒体和出版物是由有关邮政的信息所主导的,即实施现代流动解决方案的积极影响(例如:按需,按需,按需,共享,自动驾驶汽车)的扩散副作用,其扩散的副作用,在市场中占有不足。研究目标是为了获得建筑学院的新知识,大都会的管理,以便尽可能有效地采用新解决方案的过程。对出版物的分析允许识别知识的差距并提出研究问题(这些)。对他们的答案是在世界各地专家之间进行两轮调查的Delphi研究中的审议。使用MICMAC技术,确定了间接关系,这使得可以检测到最重要的运动范围和最重要的关系。根据累积的知识,进行结构分析,系统地呈现大都市:创建其一百个要素(varights)的列表和直接关系的矩阵。制定了两个极端情况:乐观和悲观,这证实了研究论文,包括主要论点,如果不采取适当的步骤,那么现代技术和组织解决方案在移动性中的扩散将导致许多负面影响后果,包括大都市海报袭击中的不可逆转的副作用。听证会摘要以写作的语言**:博士论文的关键词以书写的语言**: *)删除不必要的。**)适用于以波兰语或英语以外的其他语言编写的博士学位论文。
Trupti Mohanty 1,Maitrey Mehta 2,Hasan M. Sayeed 1,Vivek Srikumar 2,Taylor D. Sparks 1 * 1材料科学与工程系,犹他大学,盐湖城,UT-84112,UT-84112。2 Kahlert计算学院,犹他大学,盐湖城,UT-84112,美国。 *通信:泰勒·D·斯帕克斯(Taylor D. Sparks),材料科学与工程系,犹他大学,盐湖城,UT-84112,美国,电子邮件:sparks@eng.utah.utah.utah.utah.utah.utah.utain摘要生成晶体结构,从文本描述中直接从文本描述中,标志着材料中的重要进步,可为您提供概念的流动路径。 将生成模型纳入晶体结构预测(CSP)为提高效率和创新提供了变革的机会。 虽然大型语言模型(LLM)在理解和生成文本方面表现出色,但它们在材料发现中的潜力仍然在很大程度上没有探索。 在这里,我们介绍了Crystext,这是一种从简单文本提示中生成晶体结构的高级方法,以材料组成和空间组编号为条件。 利用量化的低级别适应性(Qlora)进行微调,我们的方法可以直接从输入描述中直接从输入描述中产生有效且可扩展的CIF形成结构,从而消除了对后处理后的需求,从而确保了快速推理的有效微调。 对MP-20基准数据集的评估显示了高结构匹配速率和有效的RMSE指标,展示了该框架生成晶体结构的能力,这些晶体结构忠实地坚持指定的组成和晶体对称性。2 Kahlert计算学院,犹他大学,盐湖城,UT-84112,美国。*通信:泰勒·D·斯帕克斯(Taylor D. Sparks),材料科学与工程系,犹他大学,盐湖城,UT-84112,美国,电子邮件:sparks@eng.utah.utah.utah.utah.utah.utah.utain摘要生成晶体结构,从文本描述中直接从文本描述中,标志着材料中的重要进步,可为您提供概念的流动路径。将生成模型纳入晶体结构预测(CSP)为提高效率和创新提供了变革的机会。虽然大型语言模型(LLM)在理解和生成文本方面表现出色,但它们在材料发现中的潜力仍然在很大程度上没有探索。在这里,我们介绍了Crystext,这是一种从简单文本提示中生成晶体结构的高级方法,以材料组成和空间组编号为条件。利用量化的低级别适应性(Qlora)进行微调,我们的方法可以直接从输入描述中直接从输入描述中产生有效且可扩展的CIF形成结构,从而消除了对后处理后的需求,从而确保了快速推理的有效微调。对MP-20基准数据集的评估显示了高结构匹配速率和有效的RMSE指标,展示了该框架生成晶体结构的能力,这些晶体结构忠实地坚持指定的组成和晶体对称性。通过对船体上方的能量进行调节,我们进一步证明了水晶产生稳定的晶体结构的潜力。我们的工作强调了LLM在文本贡献的逆设计中的变革性作用,从而加速了新材料的发现。关键字:晶体结构预测(CSP),大语言模型(LLMS),量化低级适应性(Qlora)介绍传统方法,例如高通量筛选和第一原则计算在晶体结构预测(CSP)中一直是关键的[1-3] [1-3],但在计算上是昂贵的,并且是计算且具有时间量的范围,它们的化学范围跨越了范围,散布了范围的量表。利用变异自动编码器(VAE)[5-9]和生成对抗网络(GAN)[10-14]的生成方法加快了稳定的晶体结构的发现。然而,这些模型通常难以准确代表离散的原子类型及其连续的3D位置,同时结合了晶体对称性。基于扩散的模型[14-18]试图通过引入对称性的扩散过程[16]或整合诸如周期性,翻译和旋转诸如Equivariant denoising机制[17]之类的约束来解决这些局限性[17]。这些模型有效地生成具有对称约束的稳定结构,但它们在用户交互中的灵活性有限。他们对预定义的数值输入的依赖需要
扩散概率模型 扩散概率模型是一类潜在变量模型,常用于图像生成等各种任务(Ho 等人,2020 年)。正式而言,扩散概率模型通过对数据点在潜在空间中扩散的方式进行建模来捕获图像数据,这是受统计物理学启发的。具体来说,它们通常使用经过变分推理训练的马尔可夫链,然后逆转扩散过程以生成自然图像。一个值得注意的变体是稳定扩散(Rombach 等人,2022 年)。扩散概率模型也用于 DALL-E 和 Midjourney 等商业系统。生成对抗网络 GAN 是一类具有自定义对抗学习目标的神经网络架构(Goodfellow 等人,2014 年)。GAN 由两个以零和博弈形式相互竞争的神经网络组成,从而生成特定分布的样本。正式来说,第一个网络 G 称为生成器,用于生成候选样本。第二个网络 D 称为鉴别器,用于评估候选样本来自期望分布的可能性。得益于对抗性学习目标,生成器学习从潜在空间映射到感兴趣的数据分布,而鉴别器则将生成器生成的候选样本与真实数据分布区分开来(见图 2)。(大型) 语言模型 (大型) 语言模型 (LLM) 是指用于建模和生成文本数据的神经网络,通常结合了三个特征。首先,语言模型使用大规模、顺序神经网络(例如,具有注意力机制的 Transformer)。其次,神经网络通过自我监督进行预训练,其中辅助任务旨在学习自然语言的表示而不存在过度拟合的风险(例如,下一个单词预测)。第三,预训练利用大规模文本数据集(例如,维基百科,甚至多语言数据集)。最终,语言模型可以由从业者使用针对特定任务(例如,问答、自然语言生成)的自定义数据集进行微调。最近,语言模型已经发展成为所谓的 LLM,它结合了数十亿个参数。大规模 LLM 的突出例子是 BERT(Devlin 等人,2018 年)和 GPT-3(Brown 等人,2020 年),分别具有 ∼ 3.4 亿和 ∼ 1750 亿个参数。提示是语言模型的特定输入(例如,“这部电影很精彩。从人类反馈中进行强化学习 RLHF 从人类反馈中学习顺序任务(例如聊天对话)。与传统强化学习不同,RLHF 直接从人类反馈中训练所谓的奖励模型,然后将该模型用作奖励函数来优化策略,该策略通过数据高效且稳健的算法进行优化(Ziegler 等人,2019 年)。RLHF 用于 ChatGPT(OpenAI,2022 年)等对话系统,用于生成聊天消息,以便新答案适应之前的聊天对话并确保答案符合预定义的人类偏好(例如长度、风格、适当性)。提示学习 提示学习是一种 LLM 方法,它使用存储在语言模型中的知识来完成下游任务(Liu 等人,2023 年)。一般而言,提示学习不需要对语言模型进行任何微调,这使其高效且灵活。情绪:“),然后选择最可能的输出 s ∈{“positive”,“negative”} 而不是空间。最近的进展允许更复杂的数据驱动提示工程,例如通过强化学习调整提示(Liu et al.,2023)。seq2seq 术语序列到序列(seq2seq)是指将输入序列映射到输出序列的机器学习方法(Sutskever et al.,2014)。一个例子是基于机器学习的不同语言之间的翻译。此类 seq2seq 方法由两个主要组件组成:编码器将序列中的每个元素(例如,文本中的每个单词)转换为包含元素及其上下文的相应隐藏向量。解码器反转该过程,将向量转换为输出元素(例如,来自新语言的单词),同时考虑先前的输出以对语言中的模型依赖关系进行建模。seq2seq 模型的思想已得到扩展,以允许多模态映射,例如文本到图像或文本到语音的映射。Transformer Transformer 是一种深度学习架构(Vaswani 等,2017),它采用自注意力机制,对输入数据的每个部分的重要性进行不同的加权。与循环神经网络 (RNN) 一样,Transformer 旨在处理顺序输入数据(例如自然语言),可用于翻译和文本摘要等任务。但是,与 RNN 不同,Transformer 会一次性处理整个输入。注意力机制为输入序列中的任何位置提供上下文。最终,Transformer(或一般的 RNN)的输出是文档嵌入,它呈现文本(或其他输入)序列的低维表示,其中相似的文本位于更近的位置,这通常有利于下游任务,因为这允许捕获语义和含义 (Siebers et al., 2022)。变分自动编码器 变分自动编码器 (VAE) 是一种神经网络,它被训练来学习输入数据的低维表示,方法是将输入数据编码到压缩的潜在变量空间中,然后从该压缩表示中重建原始数据。VAE 与传统自动编码器的不同之处在于,它使用概率方法进行编码和解码过程,这使它们能够捕获数据中的底层结构和变化,并从学习到的潜在空间中生成新的数据样本 (Kingma and Welling, 2013)。这使得它们不仅可用于异常检测和数据压缩等任务,还可用于图像和文本生成。零样本学习/小样本学习 零样本学习和小样本学习是指机器学习处理数据稀缺问题的不同范例。零样本学习是指教会机器如何从数据中学习一项任务,而无需访问数据本身,而小样本学习是指只有少数特定示例的情况。零样本学习和小样本学习在实践中通常是可取的,因为它们降低了建立 AI 系统的成本。LLM 是小样本或零样本学习器(Brown 等人,2020 年),因为它们只需要一些样本即可学习一项任务(例如,预测评论的情绪),这使得 LLM 作为通用工具具有高度灵活性。