细长钢构件的二阶分析可能具有挑战性,尤其是在涉及大挠度的情况下。本文提出了一种基于机器学习的新型结构分析(MLSA)方法,用于对梁柱进行二阶分析,这可能是使用过度简化的分析方程或传统的有限元元素方法的普遍解决方案的有前途的替代方法。常规机器学习方法的有效性在很大程度上取决于所提供数据的定性和定量。但是,在结构工程实践中,这些数据通常很少且昂贵。要解决这个问题,采用了一种新的,可解释的基于机器学习的方法,名为“物理知识的神经网络”(PINN),在该方法中,将利用物理信息来定位学习过程,以创建一个自欺欺人的学习过程,从而可以自我培训,从而可以训练很少甚至没有预性数据集以实现准确的近似值。这项研究将Pinn方法扩展到了钢梁柱的二阶分析问题。给出了管理方程式的详细推导以及培训过程的基本物理信息。提供了Pinn框架和训练程序,其中采用了自适应减肥控制算法和转移学习技术以提高数值效率。可实用性和准确性通过四组验证示例验证。
本研究对患有发展性计算障碍的儿童的计算机学习计划进行了评估,并重点关注影响个人反应的因素。自适应训练程序 Calcularis 2.0 是根据当前数字认知的神经认知理论开发的。它旨在使数字表示自动化,支持心理数轴的形成和访问,并训练算术运算以及扩大数字范围内的算术事实知识。67 名患有发展性计算障碍的二至五年级儿童(平均年龄 8.96 岁)被随机分配到两个组中的一组(Calcularis 组,等待对照组)。训练时间包括最少 42 次 20 分钟的训练课程,最长 13 周。与等待对照组相比,Calcularis 组的儿童在算术运算和数轴估计方面表现出更高的优势。这些改进在训练间隔 3 个月后保持稳定。此外,本研究还研究了哪些预测因素可以解释训练的改进。结果表明,这种自我导向训练对数学焦虑分数低且没有其他阅读和/或拼写障碍的儿童特别有益。总之,Calcularis 2.0 支持患有发展性计算障碍的儿童提高他们的算术能力和心理数轴表示能力。然而,进一步根据个人情况调整设置是有意义的。
(AFMC)本出版物是对 AFI 36-2650《维护培训》和 DAFPD 36-26《总兵力发展与管理》的补充。它为空军维护训练程序提供了进一步指导,并为开发飞机、弹药和导弹维护训练提供了框架。本补充适用于 AFMC 内执行飞机维护的所有组织,包括提供基地级维护产品或服务的组织,以及航空航天维护和再生集团的工业运营。它也适用于在 AFMC 设施上工作的合同现场团队,除非合同官员已经验证并批准了等效系统。本补充不适用于空军国民警卫队 (ANG) 和空军预备役司令部 (AFRC) 及其部队。本指示不适用于美国太空军。本补充可进一步补充至综合体或联队级别以下。所有补充和附录均应提交给 HQ AFMC/A4PT 进行协调和批准。使用空军部 (DAF) 表格 847《出版物变更建议》将建议的变更和对本出版物的疑问提交给主要责任办公室 (OPR),并将 DAF 表格 847 从现场通过适当的职能指挥链传送到 HQ AFMC/A4PT。向 HQ AFMC/A4PT 提交对本补充材料的书面澄清请求。本出版物中放弃联队/部队级别要求的权限在合规声明后以层级编号(“T-0、T-1、T-2、T-3”)标识。有关与层级编号相关的权限的描述,请参阅空军部手册 (DAFMAN) 90-161《发布流程和程序》。通过相应的职能指挥链提交豁免请求
生成模型的快速进步导致了构成质量的令人印象深刻的飞跃,从而模糊了合成数据和真实数据之间的界限。网络规模的数据集现在易于通过合成数据不可避免地污染,直接影响了未来生成的模型的培训。已经在文献中出现了自我消耗生成模型的一些理论结果(又称迭代性重新训练),表明模型崩溃或稳定性可能取决于每个重新培训步骤中使用的生成数据的分数。但是,实际上,合成数据通常受到人类反馈的约束,并在在线使用和上载之前由用户策划。例如,流行的文本到图像生成模型的许多接口(例如稳定的扩散或Midjourney)为给定查询产生了几种图像的变化,最终可以由用户策划。在本文中,我们从理论上研究了数据策展对生成模型的迭代重新培训的影响,并表明它可以看作是一种隐式优先优化机制。但是,与标准偏好优化不同,生成模型无法访问成对比较所需的奖励功能或负面样本。此外,我们的研究不需要访问密度函数,而只需要访问样品。我们证明,如果数据是根据奖励模型策划的,则最大化迭代重新训练程序的预期奖励。我们在每个步骤使用真实数据的正分数时进一步提供了关于重新循环的稳定性的理论结果。最后,我们在合成数据集和CIFAR10上进行说明性实验,表明这种过程扩大了奖励模型的偏见。
细胞通过跨多组学层的不同分子之间的复杂相互作用而存活和增殖。用于识别这些相互作用的传统实验方法为分子生物学奠定了坚实的基础,但与高通量技术测量的多组学数据的快速积累相比,它们的可扩展性逐渐变得不足。因此,近年来,对数据驱动的细胞内相互作用计算建模的需求日益凸显。多组学相互作用的复杂性主要归因于其非线性。也就是说,它们的准确建模需要所考虑的基因或蛋白质之间存在复杂的条件依赖性、协同作用或拮抗作用,这会阻碍实验验证。人工智能 (AI) 技术,包括深度学习模型,是处理可扩展且产生大量数据的特征之间复杂非线性关系的最佳选择。因此,它们在建模多组学相互作用方面具有巨大潜力。尽管存在许多用于计算生物学应用的人工智能驱动模型,但很少有模型明确地将先验知识纳入模型架构或训练程序中。这种通过领域知识指导模型的方法将大大减少训练模型所需的数据量,并限制其巨大的表达能力以专注于生物相关空间。因此,它可以增强模型的可解释性,减少虚假相互作用,并证明其有效性和实用性。因此,为了促进知识引导的人工智能技术在多组学相互作用建模中的进一步发展,我们在此回顾了迄今为止开发的用于多组学相互作用的深度学习模型的代表性生物信息学应用,并按指导模式对其进行分类。
预训练语言模型已经改变了自然语言处理 (NLP) 领域,它们的成功激发了基因组学领域开发特定领域基础模型 (FM) 的努力。然而,从头开始创建高质量的基因组 FM 需要大量资源,需要强大的计算能力和高质量的预训练数据。大型语言模型 (LLM) 在 NLP 中的成功很大程度上是由工业规模的努力推动的,这些努力利用了庞大、多样化的语料库和海量计算基础设施。在这项工作中,我们旨在绕过从头开始创建基因组 FM 的数据和计算瓶颈,而是建议将现有的 LLM 重新用于基因组学任务。受最近观察到的“跨模态转移”现象的启发——在自然语言上预训练的转换器可以推广到其他模态——我们引入了 L2G,它使用神经架构搜索 (NAS) 和一种新颖的三阶段训练程序将预训练的 LLM 架构调整为基因组学。值得注意的是,无需对 DNA 序列数据进行大量预训练,L2G 在多个基因组学基准测试中超过一半的任务上都比经过微调的基因组 FM 和任务特定模型表现优异。在增强子活性预测任务中,L2G 进一步展示了其识别重要转录因子基序的能力。我们的工作不仅突出了语言模型在基因组学等域外任务中的通用性和有效性,还为基因组研究中更高效、资源密集程度更低的方法开辟了新途径。
摘要 - 表达文本到语音(TTS)的目的是通过不同的口语风格综合语音,以更好地反映人类的语音模式。在这项研究中,我们试图使用自然语言作为一种提示,以控制合成语音中的样式,例如,“充满悲伤的情绪中的叹气语调,并有些无助的感觉”。考虑到没有现有的TTS语料库适合基于这项新型任务,我们首先构建了语音语料库,其语音样本不仅用内容转录,而且还具有自然语言的样式描述。然后,我们提出了一种表现力的TTS模型,名为Constructtts,该模型在以下方面是新颖的:(1)我们充分利用了自我监督的学习和跨模式公制学习,并提出了一种新颖的三阶段训练程序,以获得一种可有效地嵌入良好的句子模型,可以有效地从样式中捕获促进语音和对照式的演讲风格,从而有效地捕获语义信息。(2)我们建议在离散的潜在空间中对声学特征进行建模,并训练一种新型的离散扩散概率模型,以生成载体定量(VQ)声音令牌,而不是常用的MEL频谱图。(3)我们在声学模型培训期间共同应用共同信息(MI)估计和最小化,以最大程度地减少扬声器和样式的MI,避免使用样式提示中可能的内容和扬声器信息泄漏。已经进行了广泛的客观和主观评估,以验证指令的有效性和表现力。实验结果表明,指令可以通过控制口语样式的样式来合成高层和自然语音。
过去十年来计算神经科学中最有影响力的发现之一是,深神经网络(DNN)的对象识别准确性(DNNS)与他们预测依次(IT)皮质中自然图像的神经反应的能力相关[1,2]。这一发现支持了长期以来的理论,即对象识别是视觉皮层的核心目标,并建议更准确的DNN将作为IT神经元对图像的更好模型的响应[3-5]。从那时起,深度学习就进行了一场规模的革命:经过数十亿图像训练的十亿个参数规模的DNN在包括对象识别的视觉任务上竞争或超越人类。今天的DNN在对象识别方面变得更加准确,可以预测其对图像的神经元的响应变得更加准确?在三个独立的实验中,我们发现情况并非如此:DNN逐渐变得更糟,因为其精度在Imagenet上提高了。要了解为什么DNN经历这种权衡并评估它们是否仍然是建模视觉系统的适当范式,我们转向其录音,以捕获自然图像引起的神经元活动的空间分辨图[6]。这些神经元活动图表明,接受Imagenet训练的DNN学会依靠与由其编码的DNN相比,并且随着其准确性的提高,该问题恶化。我们成功解决了这个问题,这是DNNS的插件训练程序,它使他们学到的表现与人类保持一致[7]。我们的结果表明,统一的DNN破坏了ImageNet精度和神经预测准确性之间的权衡,从而攻击了当前的DNN,并为更准确的生物学视觉模型提供了途径。我们的工作表明,使用任务优化的DNNS需要进行修订的标准方法,以及其他生物学约束(包括人体心理物理学数据)需要准确地逆转视觉皮层。
上下文。准确的模拟晕圈目录是用于开发和验证宇宙学推断管道的必不可少的数据产品。生成模拟目录的一个主要挑战是对光环或星系偏置进行建模,这是从物质密度到暗物质光环或可观察的星系的映射。为此,n个体代码生成了最先进的目录。然而,为大容量的大量N体模拟产生了大量的N体模拟,尤其是在包括磁水动力学的情况下,需要大量的计算时间。目标。我们介绍和基准测试了一个可区分和物理信息的神经网络,该网络可以生成与从完整的N体代码获得的模拟光环目录相当的质量。模型设计在训练程序和大型模拟目录套房的生产上具有计算有效的效率。方法。我们提出了一个神经网络,仅依靠18至34个可训练的参数,该参数可从暗物质过度密度场中产生光环目录。通过将首先原理动机的对称性纳入我们的模型体系结构来实现网络权重的减少。我们使用不同分辨率,红移和大型垃圾箱的仅黑色n体模拟训练了我们的模型。我们使用不同的n点相关函数将最终模拟目录与N体晕目录进行了比较,从而验证了最终模拟目录。结果。此外,我们发现该网络可以在近似密度字段上进行培训,以进一步降低计算成本。我们的模型生成了与参考模拟一致的模拟光环目录,这表明该新型网络是生成模拟数据的一种有希望的方法,该数据由于其计算效率而即将进行的宽场调查。我们还介绍了如何解释训练有素的网络参数,以洞悉结构形成的物理。最后,我们讨论了我们的模型的当前局限性,以及从这项研究中可以明显看出的近似Halo模拟产生的一般要求和陷阱。
d 澳大利亚莫纳什大学心理科学学院 摘要 在磁共振成像 (MRI) 中,图像采集通常在测量域中欠采样以加速扫描过程,但会牺牲图像质量。然而,图像质量是影响临床诊断准确性的关键因素;因此,从欠采样测量中进行高质量的图像重建一直是一个关键的研究领域。最近,深度学习 (DL) 方法已成为 MRI 重建的最新技术,通常涉及深度神经网络通过数据驱动的过程将欠采样的 MRI 图像转换为高质量的 MRI 图像。尽管如此,在消除混叠伪影和降低图像噪声方面,欠采样 DL MRI 重建仍有明显且巨大的改进空间,以满足临床诊断所需的高标准。在本文中,我们引入了一种使用对比学习的自监督预训练程序来提高欠采样 DL MRI 重建的准确性。我们使用对比学习将 MRI 图像表示转换为潜在空间,该潜在空间最大化不同欠采样表示之间的相互信息,并优化下游 DL 重建模型输入处的信息内容。我们的实验表明,在一系列加速因子和数据集上,重建精度都有所提高,无论是定量还是定性。此外,我们的扩展实验验证了所提出的框架在对抗条件下的稳健性,例如测量噪声、不同的 k 空间采样模式和病理异常,并证明了在具有完全不同解剖结构的 MRI 数据集上的迁移学习能力。此外,我们还进行了实验来可视化和分析所提出的 MRI 对比学习潜在空间的属性。代码可在此处获得。关键词:对比学习潜在空间、相互信息最大化、欠采样 MRI 重建、深度学习模型、重建精度