你的确是对的!但目前计算机进行的近似计算遵循了完全不同的路径:在几分之一秒内执行数百万次数学运算,以获得有时可能被标记为足够有时可能不足够的翻译。事实证明,它们恰好足够的次数百分比在过去几年中急剧上升。但是,从历史上看,人工神经网络被设计为自然神经网络(例如我们的大脑)如何工作的简化模型,其中进行的认知过程也是分布式神经计算过程的结果,这些过程与上面提到的数学运算并没有太大不同。本章将教你 NMT 技术的关键要素。我们将首先指出人类大脑如何进行翻译与 NMT 系统如何进行翻译之间的联系。这将有助于我们介绍全面了解机器学习和人工神经网络原理所需的基本概念,这构成了 NMT 的两个基石。之后,我们将讨论非上下文词嵌入的基本原理,这是一种具有许多有趣属性的词的计算机化表示,当通过一种称为注意力的机制组合时,将产生所谓的上下文词嵌入,这是实现 NMT 的关键因素。所有这些要素将使我们能够全面展示两种最常用的 NMT 模型(即 Transformer 和循环模型)的内部工作原理。本章最后介绍了一系列次要主题,这些主题将提高您对这些系统如何在幕后运行的了解。
主要关键词