BioZen................................................................................ 4 Breathe2Relax.............................................................. 5 决定 + 做好准备.............................................................. 6 DHA MedCard.............................................................................. 7 服药依从性...................................................................... 8 疼痛与阿片类药物安全............................................................. 9 从儿科到成人护理的过渡....................................................10 战术呼吸器.........................................................................11 虚拟希望盒......................................................................... 12
对基于单元的提案的评估可能需要 Basin Electric 或其授权代表进行一次或多次现场访问,以进行尽职调查。Basin Electric 将需要合理地访问文档,包括竣工图和规格、施工和运营许可证、运营日志以及维护历史和时间表。如果选定的提案涉及尚未运行的发电机组,则可能会要求受访者向 Basin Electric 提供与施工相关的所有信息,包括合同、规格和许可证申请。此外,Basin Electric 可能需要访问被认为与提案评估相关的其他信息。
本文介绍了腾讯人工智能实验室 - 上海交通大学 (TAL-SJTU) 针对 WMT22 共享任务的低资源翻译系统。我们参与了英语⇔利沃尼亚语的一般翻译任务。我们的系统基于 M2M100 (Fan 等人,2021),并采用了使其适应目标语言对的新技术。(1) 跨模型词嵌入对齐:受跨语言词嵌入对齐的启发,我们成功地将预训练的词嵌入转移到 M2M100,使其能够支持利沃尼亚语。(2) 逐步适应策略:我们利用爱沙尼亚语和拉脱维亚语作为辅助语言进行多对多翻译训练,然后适应英语-利沃尼亚语。(3) 数据增强:为了扩大英语-利沃尼亚语的平行数据,我们以爱沙尼亚语和拉脱维亚语为枢轴语言构建了伪平行数据。(4) 微调:为了充分利用所有可用数据,我们使用验证集和在线反向翻译对模型进行微调,进一步提升性能。在模型评估方面: (1) 我们发现以前的研究(Rikters et al.,2022 )由于 Unicode 规范化不一致而低估了利沃尼亚语的翻译性能,这可能导致高达 14.9 BLEU 分数的差异。(2) 除了标准验证集外,我们还使用往返 BLEU 来评估模型,我们发现这更适合这项任务。最后,我们的无约束系统在英语与利沃尼亚语之间的互译中取得了 17.0 和 30.4 的 BLEU 分数。1
我们描述了 Facebook 向 WMT2021 新闻翻译共享任务提交的多语言模型。我们参与了 14 个语言方向:英语与捷克语、德语、豪萨语、冰岛语、日语、俄语和中文之间的互译。为了开发涵盖所有这些方向的系统,我们专注于多语言模型。我们利用来自所有可用来源的数据——WMT、大规模数据挖掘和域内反向翻译——来创建高质量的双语和多语言基线。随后,我们研究了扩展多语言模型大小的策略,使得一个系统具有足够的容量来高质量地表示所有八种语言。我们的最终提交是密集和稀疏混合专家多语言翻译模型的集合,然后对域内新闻数据进行微调和嘈杂通道重新排名。与去年的获奖作品相比,我们的多语言系统在所有语言方向上的翻译质量都有所提高,平均提高了 2.0 BLEU。在 WMT2021 任务中,我们的系统在基于自动评估的 10 个方向上排名第一。
本文介绍了 Netmarble 提交的针对英语-德语语言对的 WMT21 自动后期编辑 (APE) 共享任务。首先,我们提出了一种训练阶段的课程训练策略。Facebook Fair 的 WMT19 新闻翻译模型被选中来参与大型且强大的预训练神经网络。然后,我们在每个训练阶段使用不同级别的数据对翻译模型进行后训练。随着训练阶段的进行,我们通过在不同训练阶段逐渐添加额外信息,让系统学会解决多项任务。我们还展示了一种将大量额外数据用于 APE 任务的方法。为了进一步改进,我们在微调阶段应用了动态加权平均的多任务学习策略。为了使用有限的数据对 APE 语料库进行微调,我们添加了一些相关的子任务来学习统一的表示。最后,为了获得更好的性能,我们在后训练和微调期间利用外部翻译作为增强机器翻译 (MT)。实验结果表明,我们的 APE 系统在开发数据集上显著提高了所提供的 MT 结果的翻译,TER 和 BLEU 分别提高了 -2.848 和 +3.74。它还证明了其在测试数据集上的有效性,质量高于开发数据集。
本文介绍了三星菲律宾研究中心和 Konvergen AI 联合团队为 WMT'21 大规模多语言翻译任务提交的机器翻译系统。我们的团队参加了 Small Track #2,其任务是为五种东南亚语言(爪哇语、印尼语、马来语、他加禄语和泰米尔语 1 )以及英语制作一个多语言机器翻译系统,涵盖所有 30 个方向。我们将首先描述用于预处理数据的过滤启发式方法,然后概述我们训练和评估模型所采取的步骤。特定的超参数、预处理决策和其他训练参数将在其相应的部分列出。最后,我们报告在 FLORES-101(Goyal 等人,2021 年)隐藏测试集以及竞赛隐藏测试集上的结果。
本文介绍了 Facebook AI 提交的 WMT20 共享新闻翻译任务。我们专注于低资源设置并参与两对语言对,即泰米尔语 ↔ 英语和因纽特语 ↔ 英语,其中域外双语文本和单语数据有限。我们使用两种主要策略解决低资源问题,利用所有可用数据并使系统适应目标新闻领域。我们探索了利用所有语言的双语文本和单语数据的技术,例如自监督模型预训练、多语言模型、数据增强和重新排名。为了使翻译系统更好地适应测试域,我们探索了数据集标记和域内数据的微调。我们观察到,根据语言对的可用数据,不同的技术提供了不同的改进。基于这一发现,我们将这些技术集成到一个训练流程中。对于 En → Ta,我们探索了一种无约束设置,其中包含额外的泰米尔语双语文本和单语数据,并表明可以获得进一步的改进。在测试集上,我们提交的最佳系统分别对 Ta → En 和 En → Ta 实现了 21.5 和 13.7 BLEU,对 Iu → En 和 En → Iu 分别实现了 27.9 和 13.0。
