• 目视着陆辅助设备 (VLA) 实验室 – 通过维护当前部署的 VLA 系统的最新服务变更配置,为机队 VLA 系统提供支持。该实验室还用于开发、制造和排除系统故障。当前的 VLA 系统包括:改进型菲涅尔透镜光学着陆系统 (IFLOLS)、手动操作目视着陆系统 (MOVLAS)、远程对线系统 (LRLS)、标记和照明设备、着陆信号官显示系统 (LSODS)、综合发射和恢复电视监视 (ILARTS) 系统、地平线参考集 (HRS)、垂直短距起降 (VSTOL) 系统、直升机操作和监视系统 (HOSS) 以及各种其他电子系统。
按照掩蔽语言建模 (MLM) 目标进行训练的多语言预训练语言模型 (multiPLM) 通常用于双语文本挖掘等跨语言任务。然而,这些模型的性能对于低资源语言 (LRL) 仍然不是最优的。为了改进给定 multiPLM 的语言表示,可以进一步对其进行预训练。这称为持续预训练。先前的研究表明,使用 MLM 进行持续预训练,随后使用翻译语言建模 (TLM) 进行预训练可以改进 multiPLM 的跨语言表示。然而,在掩蔽期间,MLM 和 TLM 都会给予输入序列中的所有标记相同的权重,而不管标记的语言属性如何。在本文中,我们引入了一种新颖的掩蔽策略,即语言实体掩蔽 (LEM),用于持续预训练步骤,以进一步改进现有 multiPLM 的跨语言表示。与 MLM 和 TLM 相比,LEM 将掩码限制在语言实体类型名词、动词和命名实体上,这些实体在句子中占据更重要的地位。其次,我们将掩码限制在语言实体范围内的单个标记上,从而保留更多上下文,而在 MLM 和 TLM 中,标记是随机掩码的。我们使用三个下游任务评估 LEM 的有效性,即双语挖掘、并行数据管理和代码混合情感分析,使用三种低资源语言对英语-僧伽罗语、英语-泰米尔语和僧伽罗语-泰米尔语。实验结果表明,在所有三个任务中,使用 LEM 持续预训练的多 PLM 优于使用 MLM+TLM 持续预训练的多 PLM。