安全性和隐私性是现代通信系统的关键方面 [1]。经典的窃听信道最早由 Wyner [2] 提出,用于模拟存在被动窃听者时的通信。另一方面,Merhav 和 Shamai [3] 提出了一种不同的通信系统,其隐私要求是掩蔽。在这种情况下,发送方通过无记忆状态相关信道 p Y | X,S 传输序列 X n ,其中状态序列 S n 具有固定的无记忆分布,不受传输影响。X n 的发送方被告知 S n ,并需要向接收方发送信息,同时限制接收方可以了解的有关 S n 的信息量。掩蔽设置也可以看作是与不受信任方的通信,其中 Alice 希望向 Bob 发送有限量的信息,并隐藏信息源 [4, 5]。相关设置也在 [6–8] 中进行了考虑。量子信息领域在实践和理论方面都在迅速发展 [9]。通过量子信道的通信可以分为不同的类别。对于经典通信,霍尔沃-舒马赫-威斯特摩兰 (HSW) 定理为量子信道的容量提供了一个正则化(“多字母”)公式 [10, 11]。虽然这种公式的计算一般难以处理,但它提供了可计算的下限,并且在特殊情况下可以精确计算容量。另一个有趣的场景是 Alice 和 Bob 共享纠缠资源。虽然纠缠可用于产生共享随机性,但它是一种更强大的辅助 [12]。例如,使用超密集编码,纠缠辅助可将无噪声量子比特信道上经典消息的传输速率提高一倍。Bennett 等人 [13] 在量子互信息方面充分表征了有噪声量子信道的纠缠辅助容量。Boche 等人 [14] 在编码器中使用信道状态信息 (CSI) 处理经典量子信道。容量是根据因果 CSI 确定的,并且正则化
该项目将为海象科和海马科食肉动物(分别为太平洋海象和加州海狮)提供听觉数据,以便比较这些海洋哺乳动物类群之间的声学敏感性并支持环保合规工作。海洋生物资源 (LMR) 计划为该项目提供资金,补充了美国支持的一项持续努力。鱼类和野生动物管理局与美国地质调查局合作,对太平洋海象 (Odobenus rosmarus divergens) 的听觉掩蔽进行了特征分析,以同时产生噪音。LMR 的额外支持使项目团队能够将研究范围扩大到包括加州海狮 (Zalophus californianus) 并收集其他比较数据。这项研究将为被指定为“其他海洋食肉动物”的海洋哺乳动物功能性听力组提供与噪音暴露标准相关的新信息。这是一组不属于海豹科(真正的海豹)的两栖海洋哺乳动物,包括海狮、海狗、海象和海獭。它们是听觉和噪音影响方面研究最少的海洋哺乳动物之一,但它们却占据着对美国海军行动至关重要的北太平洋和北极水域。
图像包含大量冗余信息,使其具有挑战性地在大规模上从它们中有效地了解它们。最近的工作通过在视觉语言构想学习期间掩盖图像贴片来解决这个问题[15,33,36,70]。一种简单的方法是随机放下大部分斑块,通过降低每个训练迭代中的计算成本和记忆使用量,从而更有效地培训训练[36]。替代策略是掩盖语义相关的贴片[15,33,70],例如属于同一对象的贴片。这迫使学习的模型预测从上下文中描述缺少场景结构的单词,从而改善了学识渊博的表示。但是,这种方法需要一种单独的机制来将语义重新贴定的补丁分组在一起,这为学习过程增加了相当大的复杂性,并且计算上很昂贵。我们提出了一种简单的掩盖策略,用于避免这些缺点的多模式对比学习。在训练期间,我们掩盖了斑块的随机簇(图1)。对于此聚类,我们将Patches的原始RGB值用作特征表示。我们的方法利用了一个事实,即视觉相似性的简单度量通常可以限制相干的视觉结构,例如对象部分[18,53],
摘要。嵌入式设备上的每个加密实现都容易受到侧向通道攻击的影响。为了防止这些攻击,主要的对策包括将每个敏感变量分开并独立处理。随着旨在抵抗量子计算机及其操作复杂性的新算法的即将到来,此保护代表了一个真正的挑战。在本文中,我们提出了对保护自行车加密系统解码器免受一阶攻击的早期尝试的攻击。此外,我们还引入了一个新的程序,用于对解码器的高阶掩盖,并最新进行了最新的改进。我们还提出了整个密码系统的第一个完全掩盖的实现,包括关键生成和封装。最终,为了评估对策的正确性并启动进一步的比较,我们在C中实施了对策,并提供了其性能的基准。
掩盖语言建模(MLM)作为预处理目标已在基因组序列建模中广泛采用。虽然审计的模型可以成功地作为各种下游任务的编码器,但在预处理和推理之间的分离转变会对性能产生不利影响,因为预处理的任务是映射[蒙版]对预测的标志,但是[mask]在下游应用程序中却没有[mask]。这意味着编码器不会优先考虑其非[蒙版]令牌的编码,而是在部署时间与MLM任务相关的工作,并在与MLM任务相关的工作中计算参数并计算。在这项工作中,我们根据掩盖的自动编码器框架提出了一个修改的编码器架构,旨在解决基于BERT的变压器中的这种低效率。我们从经验上表明,所产生的不匹配特别是在基因组管道中有害的,在基因组管道中,模型通常用于特征提取而无需微调。我们在Bioscan-5M数据集上评估了我们的方法,其中包含超过200万个独特的DNA条形码。与因果模型和通过MLM任务预测的因果模型和双向体系结构进行比较时,我们在封闭世界和开放世界分类任务中实现了可观的性能增长。
按照掩蔽语言建模 (MLM) 目标进行训练的多语言预训练语言模型 (multiPLM) 通常用于双语文本挖掘等跨语言任务。然而,这些模型的性能对于低资源语言 (LRL) 仍然不是最优的。为了改进给定 multiPLM 的语言表示,可以进一步对其进行预训练。这称为持续预训练。先前的研究表明,使用 MLM 进行持续预训练,随后使用翻译语言建模 (TLM) 进行预训练可以改进 multiPLM 的跨语言表示。然而,在掩蔽期间,MLM 和 TLM 都会给予输入序列中的所有标记相同的权重,而不管标记的语言属性如何。在本文中,我们引入了一种新颖的掩蔽策略,即语言实体掩蔽 (LEM),用于持续预训练步骤,以进一步改进现有 multiPLM 的跨语言表示。与 MLM 和 TLM 相比,LEM 将掩码限制在语言实体类型名词、动词和命名实体上,这些实体在句子中占据更重要的地位。其次,我们将掩码限制在语言实体范围内的单个标记上,从而保留更多上下文,而在 MLM 和 TLM 中,标记是随机掩码的。我们使用三个下游任务评估 LEM 的有效性,即双语挖掘、并行数据管理和代码混合情感分析,使用三种低资源语言对英语-僧伽罗语、英语-泰米尔语和僧伽罗语-泰米尔语。实验结果表明,在所有三个任务中,使用 LEM 持续预训练的多 PLM 优于使用 MLM+TLM 持续预训练的多 PLM。
自我监督的表示学习(SSL)(Balesteriero等人,2023年)近年来已经成为表示学习的基石。诸如Openai剪辑之类的模型(Radford等人,2021)示例SSL方法如何产生适用于广泛下游任务的表达性表示。此范式依赖于配对的观测值(配对的视图或共享相同内容的方式)来提取有意义的特征。从广义上讲,SSL方法分为两类:歧视性和生成性(或基于重建)。歧视性SSL(Chen等人,2020年)旨在确保比随机采样观测值在潜在空间中更接近配对观测的表示。相反,基于重建的SSL(He等人,2022)涉及从其对中重建一个观察结果。在多视图设置中,数据增强技术(例如图像裁剪和颜色抖动)通常用于人为地创建单个单个观测值。在这些增强中,事实证明,图像裁剪特别有影响力,推动了视觉学习模型(例如Meta's Dino)(Caron等人,2021; Oquab等。,2023)和JEPA(Assran等人,2023)。最近的研究(Bizeul等人,2024)1表明,在图像域中,掩盖(概念上类似于裁剪),而不是单个图像像素可以生成图像对,从而促进基于重建的SSL中表达特征的学习。,2023)。在这个项目中,我们的目标是投资于将类似方法应用于歧视性SSL是否可以产生可比的好处,专门针对Dino,Jepa和Siglip(Zhai等人。
掩盖理论指出,单倍体阶段表达的基因将在更有效的选择下。在con trast中,选择在二倍体阶段表达的基因中的效率较低,在二倍体阶段,隐性有害或有益突变的适应性可能以杂合形式隐藏。这种差异可以在流动性中几个进化过程,例如维持遗传变异,适应率和遗传负荷。掩盖理论期望已在单细胞单倍体和二倍体生物中得到证实。然而,在多细胞生物(例如植物)中,单倍体选择的作用并不明确。在植物中,已经使用血管中的雄性单倍体组织进行了大量选择的研究。因此,这些系统中的证据与性选择和种内竞争的影响相混淆。其他植物群的证据很少,结果没有对掩盖理论的支持。在这里,我们使用了裸子苏格兰松树巨型植物学,母体衍生的种子单倍体组织和四个二倍体Tis SU来测试在具有组织特异性表达的一组基因上纯化选择的强度。通过使用这些基因的靶向重新定位数据,我们获得了遗传多样性,0倍和4倍位点的位点频谱的估计值,并推断了单倍体组织和二倍体组织 - 特异性基因中新突变的适应性效应的分布。我们的结果表明,在单倍体巨脂组织组织中表达的组织特异性基因纯化选择更强,并且这种强选择的信号不是由高表达水平驱动的伪像。
在幕后,自适应声音掩蔽系统算法非常复杂。它提供了很大的灵活性,可以避免“动态”声音掩蔽系统的许多潜在缺陷。无反馈、自平衡系统:自适应声音掩蔽技术每 15 秒进行一次调整。该算法将测量该期间的峰值噪声水平 (L10%),并将其与背景噪声水平 (L95%) 进行比较。当这两个值之间的差距很小时,这意味着空间很安静,算法将默认使用 0.5 dB 的步长略微降低增益。当峰值和背景之间的差距增加时,这意味着空间中的活动更多,因此系统将略微增加声音掩蔽增益。几分钟后,这将倾向于增加由自然背景(活动 + 通风)和声音掩蔽组成的整体背景噪声水平。背景噪声水平 (L95%) 的增加将因此减少峰值和背景之间的差距,并且掩蔽噪声增加将停止。结果是系统不会自我反馈,在任何条件下都能自我平衡。对背景水平变化做出适当反应:适当的声音掩蔽系统应该对语音噪音做出反应,但当建筑物中的自然背景噪音水平增加时(通风增加、交通噪音增加),不应增加。为了实现这一目标,自适应声音掩蔽系统有一个“语音过滤器”,一个 200 到 3000Hz 之间的带通滤波器,用于关注人声。
自监督预训练技术在 Document AI 中取得了显著进展。大多数多模态预训练模型使用掩码语言建模目标来学习文本模态的双向表示,但它们在图像模态的预训练目标上有所不同。这种差异增加了多模态表示学习的难度。在本文中,我们提出了 LayoutLMv3,以统一的文本和图像掩码来预训练用于 Document AI 的多模态 Transformer。此外,LayoutLMv3 还使用词块对齐目标进行预训练,通过预测文本词的相应图像块是否被掩码来学习跨模态对齐。简单的统一架构和训练目标使 LayoutLMv3 成为以文本为中心和以图像为中心的 Document AI 任务的通用预训练模型。实验结果表明,LayoutLMv3 不仅在以文本为中心的任务(包括表单理解、收据理解和文档视觉问答)中取得了最佳性能,而且在以图像为中心的任务(例如文档图像分类和文档布局分析)中也取得了最佳性能。代码和模型可在 https://aka.ms/layoutlmv3 上公开获取。