深度学习方法在过去几年中在大脑成像分析中迅速发展,但通常会受到有限的标记数据的限制。未标记数据的预训练模型在许多领域(包括自然语言处理和计算机视觉)的特征学习方面提高了有希望的改进。但是,该技术在大脑网络分析中尚未探索。在本文中,我们专注于具有变压器网络的预训练方法,以利用现有的未标记数据进行大脑功能网络分类。首先,我们提出了一个基于变压器的神经网络,称为Brainnpt,用于大脑功能网络分类。提出的方法利用令牌作为变压器模型的分类嵌入向量,以有效捕获大脑网络的表示。第二,我们为Brainnpt模型提出了一个预训练框架,以利用未标记的大脑网络数据来了解大脑网络的结构信息。分类实验的结果证明了Brainnpt模型而没有预训练,从而通过最新模型实现了最佳性能,并且具有预训练的Brainnpt模型强烈胜过最先进的模型。与模型相比,预训练的Brainnpt模型提高了精度的8.75%,而没有预训练。我们进一步比较了训练策略,分析了模型参数的影响,并解释了训练有素的模型。
像 UNet 这样的监督式深度学习网络在分割脑部异常(如病变和肿瘤)方面表现良好。然而,这类方法被提出用于单模态或多模态图像。我们使用混合 UNet Transformer (HUT) 来提高单模态病变分割和多模态脑肿瘤分割的性能。HUT 由两个并行运行的管道组成,其中一个基于 UNet,另一个基于 Transformer。基于 Transformer 的管道在训练期间依赖于 UNet 解码器中间层中的特征图。HUT 网络采用 3D 脑容量的可用模态,并将脑容量嵌入体素斑块中。系统中的变压器提高了全局注意力和体素斑块之间的长程相关性。此外,我们在 HUT 框架中引入了一种自监督训练方法,以提高整体分割性能。我们证明,在中风后病变解剖追踪 (ATLAS) 数据集的单模态分割中,HUT 的表现优于最先进的网络 SPiN,Dice 得分高出 4.84%,Hausdorffi 距离得分高出 41%。HUT 在脑肿瘤分割 (BraTS20) 数据集的脑部扫描中也表现良好,并且比最先进的网络 nnUnet 的 Dice 得分高出 0.96%,Hausdorffi 距离得分高出 4.1%。
摘要 在枪击事件或紧急情况下,安保人员对情况做出适当反应的能力取决于预先存在的知识和技能,但也取决于他们的心理状态和对类似场景的熟悉程度。在紧急情况下做出决定时,人类行为变得不可预测。在紧急情况下确定这些人类行为特征的成本和风险非常高。本文介绍了一种沉浸式协作虚拟现实 (VR) 环境,用于使用 Oculus Rift 头戴式显示器执行虚拟建筑疏散演习和枪击训练场景。协作沉浸式环境在 Unity 3D 中实现,基于运行、隐藏和战斗模式进行应急响应。沉浸式协作 VR 环境还为校园安全提供了一种独特的紧急情况训练方法。参与者可以进入云端设置的协作 VR 环境并参与枪击响应训练环境,这比大规模的真实演习具有相当大的成本优势。用户研究中的存在问卷用于评估我们的沉浸式培训模块的有效性。结果表明,大多数用户都同意,在建筑疏散环境中使用沉浸式应急响应训练模块时,他们的存在感得到了增强。
摘要 - 到现在,我们目睹了半导体行业的微型化趋势,并得到了纳米级表征和制造方面的开创性发现和设计的支持。为了促进趋势并产生越来越小,更快,更便宜的计算设备,纳米电子设备的大小现在达到了原子或分子的规模,这无疑是对新型设备的技术目标。随着趋势,我们探讨了在单个蛋白质分子上实施储层计算的非常规途径,并具有小型世界网络特性的介入神经形态连接。我们选择了izhikevich尖峰神经元作为电子处理器,与Verotoxin蛋白的原子相对应,其分子作为连接处理器的通信网络的“硬件”结构。我们在单个读数层上申请,以监督方式采用各种培训方法来研究分子结构化储层计算(RC)系统是否能够处理机器学习基准。我们从基于峰值依赖性塑性的远程监督方法开始,并以线性回归和缩放的共轭梯度背部传播训练方法继续进行。RC网络被评估为标准MNIST和扩展MNIST数据集的手写数字图像上的概念概念,并与其他类似方法相比,证明了可接受的分类精度。
摘要 持续注意力在人类日常的感知、操作和运动活动中至关重要。持续注意力的提高在多种情况下都有潜在影响,包括治疗精神障碍,如注意力缺陷/多动障碍,以及培训某些在认知负荷很大的环境下工作的专业人员,如飞行员。在本研究中,我们从传入和传出的角度回顾了基于触觉通道中双向信息流的触觉介导的持续注意力训练方法。随后,基于研究注意力与触觉通道的传入/传出通路之间相关性的研究,分析了通过触觉通道调节和增强注意力的可行性。我们确定了几个研究问题,包括如何通过传入和/或传出通路设计不同的触觉训练任务,以及可以使用哪些自适应策略来调整触觉训练任务的难度级别以确保用户参与。此外,我们还研究了可用于验证训练效果的行为和生物学证据、理解注意力增强过程背后的神经机制的方式以及可归因于近传和远传效应的有效变量。此外,我们还讨论了开发新型触觉技术所面临的困难。在本研究中,我们打算调查触觉刺激对神经可塑性的潜在影响,并促进对触觉介导的持续注意力训练的研究。
视频生成模型已经证明了产生令人难以置信的单眼视频的功能,但是,3D立体视频的产生仍然不足。我们提出了一种使用现成的单眼视频生成模型的无姿势和无训练方法,用于发电3D立体视频。我们的方法使用估计的视频深度将生成的单眼视频扭曲到立体基线的相机视图中,并采用了一种新型的框架矩阵视频介绍框架。该框架利用视频代理模型来从不同的时间戳和视图中观察到的框架。这种有效的方法会产生一致且具有语义相干的立体视频,而无需场景优化或模型调整。此外,我们开发了一个不合格的边界重新注射方案,该方案通过减轻潜在空间中分离的区域传播的负面影响进一步提高视频介绍的质量。我们通过对包括Sora(Brooks等,2024),Lumiere(Bar-Tal等,2024),Walt(Gupta等,2023)和Zeroscope(Wang等人(Wang et al。,2023A)的视频进行实验来验证我们提出的方法的效率。实验表明我们的方法比以前的方法具有显着改善。项目页面https://daipengwa.github.io/svg_projectpage/
深度卷积神经网络(DCNN)的预训练在视觉情绪分析(VSA)领域起着至关重要的作用。大多数提出的方法都采用在大型物体分类数据集(即 ImageNet)上预训练的现成的主干网络。虽然与随机初始化模型状态相比,它在很大程度上提高了性能,但我们认为,仅在 ImageNet 上进行预训练的 DCNN 可能过于注重识别物体,而未能提供情绪方面的高级概念。为了解决这个长期被忽视的问题,我们提出了一种基于人类视觉情绪感知(VSP)机制的面向情绪的预训练方法。具体而言,我们将 VSP 的过程分为三个步骤,即刺激接受、整体组织和高级感知。通过模仿每个 VSP 步骤,我们通过设计的情绪感知任务分别对三个模型进行预训练,以挖掘情绪区分的表示。此外,结合我们精心设计的多模型融合策略,从每个感知步骤中学习到的先验知识可以有效地转移到单个目标模型中,从而获得显着的性能提升。最后,我们通过大量实验验证了我们提出的方法的优越性,涵盖了从单标签学习(SLL)、多标签学习(MLL)到标签分布学习(LDL)的主流 VSA 任务。实验结果表明,我们提出的方法在这些下游任务中取得了一致的改进。我们的代码发布在 https://github.com/tinglyfeng/sentiment_pretraining 。
LLM自我训练中的最新方法主要依赖于LLM生成重音,并以正确的输出答案作为培训数据过滤那些。这种方法通常会产生低质量的微调训练集(例如,计划不正确或中间推理)。在本文中,我们开发了一种加强的自我训练方法,称为REST-MCTS ∗,基于将过程奖励指导与树搜索MCTS ∗集成在一起,用于收集高质量的推理痕迹以及每步价值以培训政策和奖励模型。REST-MCT ∗避免了通常用于通过基于树搜索的强化学习来训练过程奖励的每个步骤手动注释:给定的最终正确答案,REST-MCTS ∗能够通过估算此步骤的概率来推断正确的过程奖励,可以帮助您带来正确的答案。这些推断的奖励提供了双重目的:它们是进一步完善过程奖励模型的价值目标,并促进选择高质量的痕迹进行政策模型自我训练。我们首先表明,与先前的LLM推理基线相比,REST-MCTS ∗中的树搜索策略(如在相同的搜索预算中)具有更高的精度。然后,我们证明,通过使用该搜索策略作为培训数据所搜索的痕迹,我们可以不断增强多种迭代的三种语言模型,并超过其他自我训练算法(例如REST EM和自我奖励LM)。我们在https://github.com/thudm/rest-mcts上发布所有代码。
从个人的角度来看,正念是不费吹灰之力的(双关语)!这是一项个人活动,对个人的精神状态具有巨大的好处。策略:在您的工作日期间设置每日电话警报,并使用免费的移动应用程序(例如Headspace或Call)进行简短的(例如五分钟)的冥想休息。从PQ的互动角度来看,元素讨论的好处表明,正念有能力促进工作场所和工作组中与他人的互动。策略:研究表明,即使只有五分钟的正念也可以在具有挑战性的任务7期间对重置的重置产生重大影响。下次您的工作组撞墙,清理您的工作,设置电话警报五分钟,让每个人都闭上眼睛找到一个舒适的坐姿,并浸泡在静音中,专注于呼吸。从PQ的公司角度来看,健康的工作场所意味着更积极的组织氛围。在正念方面,这也意味着对员工的更轻松的气候。策略:在下一次管理会议上,考虑与经理分享这篇文章,突出了经理及其员工的正念好处,并鼓励他们自己尝试上述策略之一。正念在西方文化中实践,与古老的思维训练方法的传统非常相似。这种做法已经有充分的理由坚持下去:那些谨慎地迎合整个人作为心理,社会和身体生物的人的福祉好处。与我们的PQ方法一致,这些是整体,有效的健康工作场所实践和程序的必要组成部分;那些对员工和组织都有利的人。
我们提出了 MatSci-NLP,一种自然语言基准,用于评估自然语言处理 (NLP) 模型在材料科学文本上的性能。我们根据公开的材料科学文本数据构建基准,涵盖七种不同的 NLP 任务,包括命名实体识别和关系分类等传统 NLP 任务,以及特定于材料科学的 NLP 任务,例如与创建材料合成程序有关的合成动作检索。我们研究了在 MatSci-NLP 上对不同科学文本语料库进行预训练的各种基于 BERT 的模型,以了解预训练策略对理解材料科学文本的影响。鉴于材料科学领域高质量注释数据的稀缺,我们使用有限的训练数据进行微调实验,以鼓励在 MatSci-NLP 任务中进行泛化。我们在这种低资源训练环境中进行的实验表明,在科学文本上预训练的语言模型优于在一般文本上训练的 BERT。 Mat-BERT 是一种专门针对材料科学期刊进行预训练的模型,通常在大多数任务中表现最佳。此外,我们提出了一种统一的文本到模式的 MatSci-NLP 多任务学习方法,并将其性能与传统的微调方法进行了比较。在对不同训练方法的分析中,我们发现我们提出的受问答启发的文本到模式方法始终优于单任务和多任务 NLP 微调方法。代码和数据集是公开可用的 1 。