从脑电图信号中解码人类活动一直是一个热门的研究课题。虽然最近的研究越来越多地将重点从单一受试者转移到跨受试者分析,但很少有人探索该模型对以前未见过的受试者的脑电图信号进行零样本预测的能力。本研究旨在调查深度学习方法是否可以捕获人类脑电图信号中固有的与受试者无关的语义信息。这些见解对于脑机接口 (BCI) 至关重要,因为一方面,它们证明了模型对受试者特定时间偏差的稳健性,另一方面,它们显着增强了下游任务的通用性。我们使用大型语言模型 (LLM) 作为去噪代理,从嘈杂的脑电图信号中提取与受试者无关的语义特征。包括消融研究在内的实验结果强调了 LLM 在从嘈杂的 EEG 数据中解码与主题无关的语义信息方面的关键作用。我们希望我们的研究结果将有助于推进 BCI 研究,并帮助学术界和工业界将 EEG 信号应用于更广泛的应用。
These tools leverage vast databases of academic citations and metadata, typically relying on large, open scholarly da- tabases and services such as OpenAlex (a free, open source index of scholarly works for the scientific community), Se- mantic Scholar (an AI-powered search engine for academic papers using machine learning to identify connections be- tween works), and Crossref (a service that provides DOIs for academic content, enabling persistent links to research输出)。这些特征包括基于Web的Interfaces连接到开放引用数据库和知识图,基于用户选择的种子论文的起点,基于引用的算法,用于推荐相关论文,连接的交互式可视化以及需要的连接过程以及用于精炼和ex-ex-ex-ex-panding panding文献MAPS MAPS MAPS MAPS。
无分类器指导(CFG)已广泛用于文本到图像扩散模型中,其中引入了CFG量表以控制整个图像空间的文本指导强度。但是,我们认为全球CFG量表会导致空间不一致,这是不同的脱节优势和次优的图像质量。为了解决这个问题,我们提出了一种新颖的方法,即语义意识的无分类器指导(S-CFG),以自定义文本到图像扩散模型中不同语义单元的指导学位。具体来说,我们首先设计了一种训练 - 免费的语义分割方法,将潜在图像分配到每个Denoising步骤中相对独立的语义区域。尤其是,将U-NET主链中的跨意义图被重新归一化,以将每个贴片分配给相应的令牌,而自我注意力图则用于完成语义区域。然后,为了平衡各种语义单元的扩增,我们会自适应地调整各个不同区域的CFG尺度,以将文本指导学度重新确定为统一水平。最后,广泛的实验证明了S-CFG优于原始CFG策略在各种文本到图像扩散模型上的优越性,而无需任何额外的培训成本。我们的代码可在https://github.com/smilesdzgk/s-cfg上找到。
我们提出了一个半监督的域适应框架,用于来自不同图像模式的脑血管序列。现有的最新方法集中在单一模态上,尽管可用的脑血管成像技术广泛。这可能导致重大分布变化,从而对跨模式的概括产生负面影响。By relying on annotated angiographies and a limited number of an- notated venographies, our framework accomplishes image-to-image translation and se- mantic segmentation, leveraging a disentangled and semantically rich latent space to represent heterogeneous data and perform image-level adaptation from source to tar- get domains.此外,我们降低了基于周期的架构的典型复杂性,并最大程度地减少了对抗性训练的使用,这使我们能够通过稳定的培训构建一个高效且直观的模型。我们评估了有关磁共振血管造影和静脉曲张的方法。在源域中实现最先进的性能时,我们的方法在目标域中达到了仅8个目标域的骰子得分系数。降低了9%,突出了其在不同模态上稳健脑血管图像分割的有希望的潜力。
扩散模型代表文本到图像生成中的新范式。除了从文本提示中生成高质量的图像之外,诸如稳定扩散之类的模型已成功扩展到了共同生成的分段伪遮罩。但是,当前的敏感主要依赖于提取与用于图像合成的及时单词相关的关注。这种方法限制了从文本提示中未包含的单词代币中得出的分割掩码的产生。在这项工作中,我们介绍了开放式摄影注意力图(OVAM) - 用于文本到图像扩散模型的无训练方法,可为任何单词生成注意力图。此外,我们提出了一个基于OVAM的轻巧优化过程,用于查找具有单个注释的对象类的准确注意图。
手动调试量子程序是一项困难且耗时的过程。在本文中,我们介绍了一种基于增量调试和基于属性的测试的量子程序自动调试技术。我们的技术可以自动识别在量子程序更新中导致基于属性的回归测试失败的更改。为了评估我们的技术,我们将故障和保留语义的更改注入到三种量子算法中。在测量故障和保留语义的更改的百分比后,我们讨论了我们方法的可行性和有效性。我们的结果表明,我们的方法具有很高的真正例(称为敏感度)和真负例(称为特异性),并且在引入程序的更改量方面具有鲁棒性。此外,该方法的敏感度随着属性数量的增加而显著增加。而当增加属性和输入的数量时,特异性保持稳定。
医学图像分析和处理是临床应用和科学研究的关键组成部分。深度学习通过从数据中识别形态或纹理模式来彻底改变了医学图像分析。为了增强脑肿瘤图像分析,在本文中提出了一个改进的基于U-NET的模型,称为Arunet。通过整合卷积网络和自我注意力的机制,本论文着重于优化在U-NET网络结构中提取媒体信息的能力,并有助于剩余净值以减少在训练过程中拟合难度的问题。这增加了模型的深度,并增强了U-NET自身提取抽象特征的能力。此外,自我注意机制有助于解码器专注于关键信息,从而提高模型的性能。该模型在BRATS2021数据集上实现了最先进的性能,最高为95.54%。关键词:医学图像分析,脑肿瘤分割,人工智能,深度学习,U-NET,自我注意力。
基于文本的强化学习涉及使用观察到的文本和自然语言的可接受动作来完成任务的代理人与虚构环境进行交互。以前的作品表明,即使在完全没有语义理解或其他语言能力的情况下,代理也可以在基于文本的交互式环境中成功。这些代理商在玩这样的游戏中的成功表明,语义理解可能并不重要。这提出了一个重要的问题,即LMS通过游戏指出代理商的好处。在这项工作中,我们证明了丰富的语义理解会导致对基于文本的RL代理的有效培训。此外,我们描述了基于文本的强化学习(TBRL)中语言模型的不适当微调的结果。具体来说,我们描述了LM中单词的出现表示的转变,以及它如何影响代理在与训练游戏的语义上相似的任务中的性能。这些结果可能有助于制定更好的策略,以在基于文本的RL方案中微调代理。