注意:要输入文章名称词典中未列出的项目的记录,请使用类别代码 Y,后跟文章的完整名称。如果文章名称是一个超过六个字母的单词,则必须使用前六个字母。将包含两个单词的文章名称视为一个单词,使用前六个字母。如果文章名称有三个单词,则必须使用前两个单词和前四个字母或最后一个单词的首字母。可以在 NCIC 操作手册的文章文件章节中找到其他编码说明。
注意:要输入文章名称词典中未列出的项目的记录,请使用类别代码 Y,后跟文章的完整名称。如果文章名称是一个超过六个字母的单词,则必须使用前六个字母。将包含两个单词的文章名称视为一个单词,使用前六个字母。如果文章名称有三个单词,则必须使用前两个单词和前四个字母或最后一个单词的首字母。可以在 NCIC 操作手册的文章文件章节中找到其他编码说明。
注意:要输入文章名称词典中未列出的项目的记录,请使用类别代码 Y,后跟文章的完整名称。如果文章名称是一个超过六个字母的单词,则必须使用前六个字母。将包含两个单词的文章名称视为一个单词,使用前六个字母。如果文章名称有三个单词,则必须使用前两个单词和前四个字母或最后一个单词的首字母。可以在 NCIC 操作手册的文章文件章节中找到其他编码说明。
注意:要输入文章名称词典中未列出的项目的记录,请使用类别代码 Y,后跟文章的完整名称。如果文章名称是一个超过六个字母的单词,则必须使用前六个字母。将包含两个单词的文章名称视为一个单词,使用前六个字母。如果文章名称有三个单词,则必须使用前两个单词和前四个字母或最后一个单词的首字母。可以在 NCIC 操作手册的文章文件章节中找到其他编码说明。
在 (a) 款中,10:20(前 19 个字)被删除,因为内容多余。插入“联邦”一词以反映波多黎各的现状。“美国占领的任何地区”一词被“无论位于何处的占领地区”一词所取代。在 (c) 款中,“包括”一词被“由……组成”一词所取代。在 (c)(1) 款中,“为美国服务期间的国民警卫队”一词被“根据任何法律规定在陆军中服役的所有人员,包括根据法律规定的召唤为美国服务时各州、领地和哥伦比亚特区的国民警卫队成员”一词所取代。 10:1b(第 1 到第 3 个分号之间的单词)和 50:1021(最后一句)被省略,因为列出的组成部分包括其成员。在 (c)(2) 款中,单词“或征兵”被省略,因为“征兵”一词涵盖了这些单词。在 (d) 款中,10:20i(第 8 到第 38 个单词)被省略,因为多余。单词“由所有组成”被替换为单词“应包括所有”。单词“军队成员”被替换为单词“人员”。
Bahdanau等人提出的基本注意机制。(2015)对于机器翻译而言,通过学习将目标语言与源语言中的单词保持一致,并通过学习目标语言的语言模型来对齐单词。目标序列是基于上一个单词和上下文生成的,从根本上讲,这是源和目标语言中的单词之间的映射。García(2013)表明,语言解释者用一种语言解释句子,然后将其翻译成另一种语言,而不是按单词的基础进行翻译。Ullman(2015)研究的双语中的语言获取过程提出了类似的声明/程序模型,其中不同类型的记忆负责学习两种语言的语法以及有关单词和概念的语义知识。
i。两个部分中的所有问题都是强制性的。针对每个问题的问题标记。II。 问题编号1-10和18-27是非常简短的问题,每个问题都带有1分。 要求他们用一个单词或一个句子回答。 iii。 问题编号11-12和28-29是简短的问题,每个关心3分。 对它们的答案通常不应超过60-80个单词。 iv。 问题编号13-15和30-32也是携带4分的短答案问题。 对它们的答案通常不应超过80-100个单词。 v。问题编号16-17和33-34是长答案问题,每个问题都有6分。 对它们的答案通常不应超过100-150个单词。 vi。 答案应该是简短的,并且要尽可能地遵守上述单词限制。II。问题编号1-10和18-27是非常简短的问题,每个问题都带有1分。要求他们用一个单词或一个句子回答。iii。问题编号11-12和28-29是简短的问题,每个关心3分。对它们的答案通常不应超过60-80个单词。iv。问题编号13-15和30-32也是携带4分的短答案问题。对它们的答案通常不应超过80-100个单词。v。问题编号16-17和33-34是长答案问题,每个问题都有6分。对它们的答案通常不应超过100-150个单词。vi。答案应该是简短的,并且要尽可能地遵守上述单词限制。
当前的大型语言模型(LLMS)依赖于单词预测作为其骨干预处理任务。尽管单词预测是语言处理的重要机制,但人类语言理解发生在多个层次上,涉及单词和句子的整合以实现对话语的充分理解。这项研究通过使用下一个句子预测(NSP)任务来研究语言级别的理解力来对语言理解进行建模。我们表明,NSP预处理增强了模型与大脑数据的一致性,尤其是在右半球和多需求网络中,突出了非经典语言区域对高级语言理解的贡献。我们的结果还表明,NSP可以使模型更好地捕获人类的理解绩效并更好地编码上下文信息。我们的研究表明,将各种学习目标纳入模型会导致更类似人类的表现,并研究LLMS中训练预处理任务的神经认知能力可以揭示语言神经科学中的杰出问题。