Asriani Abbas 4 哈桑努丁大学 印尼文学研究项目 文化科学系,望加锡,印尼 摘要——机器翻译作为人工智能 (AI) 的使用不断增加,世界上最受欢迎的翻译工具是谷歌翻译 (GT)。该工具不仅用于通过翻译学习和获取外语信息,而且还被用作医院、机场和购物中心互动和交流的媒介。本文旨在探讨机器翻译在翻译法语-印尼语烹饪文本 (食谱) 中的准确性。烹饪文本样本取自互联网。研究结果表明,GT 中机器翻译的符号模型是通过强调源语言和目标语言的概念 (所指) 的等价性,从源语言的能指 (形式) 翻译成目标语言的能指 (形式)。GT 有助于通过单词、短语和句子翻译现有的法语-印尼语烹饪文本概念。烹饪文本机器翻译中遇到的一个问题是文化等值。GT 机器翻译无法准确识别源语言和目标语言的文化背景,因此结果是直译的形式。但是,可以通过从一种语言到另一种语言的单词、短语和句子细化文化等价物的翻译来提高 GT 的准确性。
自我注意事项是指神经网络自行找出序列的哪些部分,例如单词句子或图像中的一系列斑点,共同有助于解决手头的问题。例如,对于语言翻译,自我注意力的目标是找出源语言中哪些单词在一起有助于目标语言中任何单个单词的产生。另一方面,在图像识别中,自我注意力将有助于网络弄清楚哪些补丁程序共同做出了最大的贡献,可以正确预测类标签。
Bahdanau等人提出的基本注意机制。(2015)对于机器翻译而言,通过学习将目标语言与源语言中的单词保持一致,并通过学习目标语言的语言模型来对齐单词。目标序列是基于上一个单词和上下文生成的,从根本上讲,这是源和目标语言中的单词之间的映射。García(2013)表明,语言解释者用一种语言解释句子,然后将其翻译成另一种语言,而不是按单词的基础进行翻译。Ullman(2015)研究的双语中的语言获取过程提出了类似的声明/程序模型,其中不同类型的记忆负责学习两种语言的语法以及有关单词和概念的语义知识。
土耳其 zkhudaybergenova@bartin.edu.tr 摘要 在现代翻译研究中,“翻译策略”一词被广泛用于描述翻译过程。本文分析了“翻译策略”的概念、该术语的各种定义以及该概念出现的原因。在许多情况下,给定概念的具体内容通常不清楚。同一研究者对该短语赋予不同的内容。“翻译策略”可以表示在一般任务框架内解决特定问题的原则性方法。使用“翻译策略”一词来指代在选择“翻译策略”时制定的目标所使用的方法。此外,在许多情况下,该短语表示特定的翻译技巧。另一方面,“翻译策略”一词用于表示翻译中的一般翻译方法。本文还讨论了翻译策略的原则和内容。对翻译策略的生存力因素进行了解释。 关键词:翻译研究,翻译策略,SL(源语言),TL(目标语言),概率预测,预翻译”分析
简介:机器翻译是一个具有重要科学和实际意义的现代自然语言处理研究领域。在实践中,语言的变化,语义知识的局限性以及缺乏平行语言资源限制了机器翻译的发展。目标:本文旨在避免在学习过程中复制神经网络,并提高具有有限资源的复杂神经网络机器翻译模型的能力。方法:研究源语言中的文本材料,并使用合适的文本材料表示模型来表达复杂,高级和抽象的语义信息。然后,基于书面数据和算法的控制开发了一个更有效的神经网络机器翻译集成模型。结果:基于转移学习以标准化有限的神经网络模型,必须将数据挖掘应用于复杂的神经网络机器翻译系统。结论:基于迁移训练的基于神经网络的嵌入式机器翻译系统需要少量标记的样品,以提高系统的渗透性。但是,这种自适应迁移学习区域方法可以很容易地导致神经网络翻译模型中的过度学习问题,从而避免了学习过程中过度的对应关系,并提高了具有有限的神经网络资源的翻译模型的概括能力。
最先进的神经检索者主要关注英语等高源语言,这阻碍了他们在涉及其他语言的检索中采用。当前通过杠杆化的多语言审计语言模式,可以证明缺乏非英语语言的高质量标记数据。但是,这些模型需要多种语言的大量特定于任务特定的微调,通常在训练阶段的语料库中以最少的反映语言表现较差,以在培训阶段之后结合新语言。在这项工作中,我们提出了一个新颖的模块化检索模型,该模型从单个高资源语言的丰富数据中学习,并有效地转移到各种语言,从而消除了对语言特定标记的数据的需求。我们的模型Colbert-XM展示了与现有的最新的多语言检索器相对的性能,这些猎犬在更广泛的数据集中以各种语言进行了培训。进一步的分析表明,我们的模块化方法具有高度的数据效率,有效地适应了分布数据,并大大减少了能耗和碳排放。通过证明其在零拍摄的Sce-Narios中的熟练程度,Colbert-XM标志着向更可持续和包容的检索系统的转变,从而使有效的信息可以使用多种语言获得。我们将公开发布社区的代码和模型。
生成技术是一种亚符号无监督的机器学习算法,由于它们令人印象深刻的能力,它们可以通过处理该信息来对其进行分类或解释,还可以生成适合给定任务的新数据,因此最近引起了很多关注。一般概念已经存在了几年,最初是由Google研究人员描述的[1]。最初是为文本机器翻译域而设计的,所谓的变压器模型遵循以源语言学习给定文本序列的上下文的想法,并将其映射到目标语言。由于模型接受了大量培训数据的培训,因此它们被称为大型语言模型或简称LLM。公司的研究人员Openai建立在最初的想法上。他们开发了生成验证的变压器(GPT)[2],最后,通过聊天界面的gpt3模型[3]发布将LLMS带入了广泛的用户社区的意识。从那时起,Evolutions导致了OpenAI的当前版本GPT-4。类似的模型用于其他数据类型,例如图像,视频和声音[4]。同时,几个应用程序将功能作为帮助将功能集成到现有工具中(例如搜索引擎,例如Microsoft Bing或照片编辑软件,例如Adobe Firefly)。该方法的更高级应用已经出现,例如视觉语言 - 动作模型(VLA模型),它们使用聚合的变压器模型来链条提示并模拟复杂机器人的推理[5]。
2使用加密协议的安全程序分区6 2.1概述。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。7 2.1.1标签推理。。。。。。。。。。。。。。。。。。。。。。。。。。。11 2.1.2协议选择。。。。。。。。。。。。。。。。。。。。。。。。。。11 2.1.3运行时。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。14 2.1.4威胁模型。。。。。。。。。。。。。。。。。。。。。。。。。。。。15 2.2信息流控制。。。。。。。。。。。。。。。。。。。。。。。。。16 2.2.1用标签捕获攻击。。。。。。。。。。。。。。。。。。17 2.2.2委托。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。20 2.3源语言。。。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>21 2.3.1标签检查。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>23 2.4标签推断。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>26 2.4.1:标签connstraints。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>27 2.4.2主约束。。。。。。。。。。。。。。。。。。。。。。。28 2.4.3解决主约束。。。。。。。。。。。。。。。。。。。30 2.5协议选择。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。31 2.5.1协议分配的有效性。。。。。。。。。。。。。。。。。33 2.5.2协议分配的成本。。。。。。。。。。。。。。。。。。。。34 2.5.3计算最佳协议分配。。。。。。。。。35 2.6运行时系统。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。37 2.6.1协议组成。。。。。。。。。。。。。。。。。。。。。。。38 2.7实施。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。41 2.8评估。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。43 2.8.1表现力。。。。。。。。。。。。。。。。。。。。。。。。。。。45 2.8.2汇编的可伸缩性。。。。。。。。。。。。。。。。。。。。。45 2.8.3编译程序的性能。。。。。。。。。。。。。。。47 2.8.4安全标签的注释负担。。。。。。。。。。。。。。47 2.8.5运行时系统的开销。。。。。。。。。。。。。。。。。。。48 2.9相关工作。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。49