掩蔽关键词检索结果

俄罗斯军方谈论了带有DSU无人机网络的掩蔽道路 div>

Российские военные рассказали о маскировке дорог сетями от дронов ВСУ

俄罗斯军方告诉伊兹维斯蒂亚如何掩盖乌克兰武装部队(APU)无人机附近的篮网附近的道路。在普通生活中,这种网络被用来种植黄瓜,但军事发动机发现了完全不同的应用。从空中,屏障是看不见的,因此无人机粘在其中,没有时间损坏。

W2v-bert:结合对比学习和用于自监督语音预训练的掩蔽语言建模

W2v-bert: Combining Contrastive Learning and Masked Language Modeling for Self-supervised Speech Pre-training

受掩蔽语言建模 (MLM) 在预训练自然语言处理模型中的成功启发,开发人员提出了 w2v-BERT,探索 MLM 用于自监督语音表示学习。

AFRL 专家收集飞机掩蔽所的声学数据以确保飞机和人员安全

AFRL experts collect aircraft shelters' acoustics data to ensure aircraft, personnel safety

加固的飞机掩体为内部人员提供保护,以对飞机进行必要的维护,但第五代战斗机,如 F-35,具有非常不同的声音特征。这就需要进行声学测试,以确保飞机和机组人员的安全。

TWA 7 B:James Webb Space望远镜找到其第一个新系外行星

TWA 7 b: James Webb Space Telescope Finds Its First New Exoplanet

twa 7 B:詹姆斯·韦伯(James Webb)太空望远镜找到了其第一个新的系外行星詹姆斯·韦伯(James Webb)太空望远镜,该望远镜于2021年发射,自2022年以来一直处于现役状态,已经使自己的双腿观看已经众所周知的系外行星,但现在可以为其先前不知名的一个直接形象而受到赞誉。自1992年以来,已经发现了系外行星,当时有两个名为Poltergeist和Phobetor的名为Pulsar PSR PSR B1257+12.随后,它们成为天文学的关键目标,希望及时捕获快照,可以帮助我们帮助我们了解行星系统的形式。已经间接地检测到了数千个,但是由于它们因其恒星的光而“淹没”,因此直接观察

归一化流是能力的生成模型

Normalizing Flows are Capable Generative Models

标准化流(NFS)是基于连续输入的可能性模型。他们在密度估计和生成建模任务上都表现出了令人鼓舞的结果,但近年来受到了相对较少的关注。在这项工作中,我们证明了NFS比以前认为的强大。我们提出TARFLOW:一种简单且可扩展的体系结构,可实现高性能的NF模型。 TARFlow可以被认为是基于变压器的掩蔽自回旋流量(MAFS)的变体:它由图像补丁上的一堆自动回归变压器块组成……

拜登火上浇油,欧洲为战争做好准备

Europe Braces For War As Biden Shovels More Fuel On The Fire

拜登火上浇油,欧洲做好战争准备作者:Sam Faddis,来自 AND Magazine,当美国主流媒体继续痴迷于特朗普“法西斯”支持者大军的想象威胁时,欧洲人则关注拜登-哈里斯政府在下台前极有可能引发第三次世界大战的可能性。在整个欧洲大陆,军事和民事当局都在努力进行民防准备,并为与俄罗斯的武装冲突做准备。插图来自 LBCSweden 正在向其公民发送 500 万份小册子,告诉他们如何做好准备。这些小册子包括在核攻击期间储存食物和寻找庇护所的说明。文件摘录包括:“不安全的世界需要做好准备。对瑞典的军事威胁已经增加,我们必须为最坏的情况做好准备——武装袭击。”“全球安全局势增加了使用核武器的风险

微调 BERT 进行文本分类

Fine-Tuning BERT for Text Classification

一个带有 Python 代码的可破解示例尽管当今的 100B+ 参数转换器模型是 AI 领域最先进的模型,但我们仍然可以使用较小的(<1B 参数)模型完成很多工作。在本文中,我将介绍一个这样的示例,即微调 BERT(1.1 亿个参数)以对网络钓鱼 URL 进行分类。我将首先介绍关键概念,然后分享示例 Python 代码。图片来自 Canva。微调微调涉及通过额外的训练将预训练模型调整到特定用例。预训练模型是通过无监督学习开发的,从而无需大规模标记数据集。然后,与从头开始训练相比,经过微调的模型可以利用预先训练的模型表示来显着降低训练成本并提高模型性能 [1]。微调大型语言模型 (LLM)将训练

注意力有多顺畅?

How Smooth Is Attention?

自注意力和掩蔽自注意力是 Transformers 取得巨大成功的核心。然而,我们对注意力的数学理解,特别是对其 Lipschitz 属性的理解(这是分析鲁棒性和表达能力的关键)并不完整。我们在几个实际场景中对自注意力的 Lipschitz 常数进行了详细研究,讨论了序列长度和层规范化对未掩蔽和掩蔽自注意力的局部 Lipschitz 常数的影响。特别是,我们表明,对于任何紧凑的 n 的输入...

Perceiver AR:通用、长上下文自回归生成

Perceiver AR: general-purpose, long-context autoregressive generation

我们开发了 Perceiver AR,这是一种自回归、模态无关的架构,它使用交叉注意将长距离输入映射到少量潜在输入,同时保持端到端因果掩蔽。Perceiver AR 可以直接处理十万多个标记,无需手工制作的稀疏模式或记忆机制即可实现实用的长上下文密度估计。

在 TensorFlow Probability 中使用自回归流进行实验

Experimenting with autoregressive flows in TensorFlow Probability

继最近对 TensorFlow Probability (TFP) 中的双射函数的介绍之后,这篇文章将自回归引入了讨论。通过新的 R 包 tfprobability 使用 TFP,我们研究了掩蔽自回归流 (MAF) 的实现,并将其用于两个不同的数据集。