由国防部经济调整办公室和德克萨斯州州长办公室下属的德克萨斯州军事防备委员会资助,德克萨斯州早期通知工具 (TENT) 旨在为军事、工业和社区利益相关者提供信息,以促进在开始开发之前的早期参与。该工具允许用户根据他们感兴趣的领域创建自定义查询。如果选定区域与需要提前通知的军事资产通知区域相交,该工具将生成一个输出,其中包含通知区域和相关的联系点信息。这些数据通过交互式地图和一般文本显示。
摘要。在Exascale计算时代,具有前所未有的计算能力的机器可用。使这些大规模平行的机器有效地使用了数百万个核心,提出了一个新的挑战。需要多级和多维并行性来满足这种挑战。粗粒分量并发性提供了一个差异的并行性维度,该维度通常使用了通常使用的并行化方法,例如域分解和循环级别的共享内存方法。虽然这些主教化方法是数据并行技术,并且它们分解了数据空间,但组件并发是一种函数并行技术,并且分解了算法MIC空间。并行性的额外维度使我们能够将可扩展性扩展到由已建立的并行化技术设置的限制之外。,当通过添加组件(例如生物地球化学或冰盖模型)增加模型复杂性时,它还提供了一种方法来提高性能(通过使用更多的计算功率)。此外,货币允许每个组件在不同的硬件上运行,从而利用异质硬件配置的使用。在这项工作中,我们研究了组件并发的特征,并在一般文本中分析其行为。分析表明,组件并发构成“并行工作负载”,从而在某些条件下提高了可扩展性。这些通用考虑是
摘要 :WordTune 的数字写作助手是人工智能生成的可在线访问的数字工具之一。本研究旨在确定 Word Tune 对学生学术写作的影响。本研究是具有准实验研究设计的实验研究。印度尼西亚东南苏拉威西岛的一所私立大学有 60 名参与者。他们参与并被有目的地选为研究样本。然后他们被分成两组,即实验组和对照组。每组由 30 名接受不同治疗的参与者组成,持续七次会议。数据是通过写作测试和问卷收集的。因此,两组的参与者都进行了前测和后测,并在研究结束时填写了问卷。研究结果表明,WordTune 数字写作显着影响学生的学术写作(Sig.00)或 p<.005。另一项研究发现,学生使用词调作为特征(即释义/重写、正式、缩短和扩展)的支持有助于他们提高学术写作成绩,特别是在一般文本模式、句子结构和语言选择方面。这项研究建议讲师可以使用词调来向学习者教授学术写作。此外,这项研究还建议进一步研究调查,以获得关于词调和学术写作的更全面的结果。
我们提出了 MatSci-NLP,一种自然语言基准,用于评估自然语言处理 (NLP) 模型在材料科学文本上的性能。我们根据公开的材料科学文本数据构建基准,涵盖七种不同的 NLP 任务,包括命名实体识别和关系分类等传统 NLP 任务,以及特定于材料科学的 NLP 任务,例如与创建材料合成程序有关的合成动作检索。我们研究了在 MatSci-NLP 上对不同科学文本语料库进行预训练的各种基于 BERT 的模型,以了解预训练策略对理解材料科学文本的影响。鉴于材料科学领域高质量注释数据的稀缺,我们使用有限的训练数据进行微调实验,以鼓励在 MatSci-NLP 任务中进行泛化。我们在这种低资源训练环境中进行的实验表明,在科学文本上预训练的语言模型优于在一般文本上训练的 BERT。 Mat-BERT 是一种专门针对材料科学期刊进行预训练的模型,通常在大多数任务中表现最佳。此外,我们提出了一种统一的文本到模式的 MatSci-NLP 多任务学习方法,并将其性能与传统的微调方法进行了比较。在对不同训练方法的分析中,我们发现我们提出的受问答启发的文本到模式方法始终优于单任务和多任务 NLP 微调方法。代码和数据集是公开可用的 1 。
我们提出了 MatSci-NLP,一种用于评估自然语言处理 (NLP) 模型在材料科学文本上的性能的自然语言基准。我们根据公开的材料科学文本数据构建基准,涵盖七种不同的 NLP 任务,包括命名实体识别和关系分类等传统 NLP 任务,以及特定于材料科学的 NLP 任务,例如与创建材料合成程序有关的合成动作检索。我们研究了在 MatSci-NLP 上在不同科学文本语料库上预训练的各种基于 BERT 的模型,以了解预训练策略对理解材料科学文本的影响。鉴于材料科学领域高质量注释数据的稀缺,我们使用有限的训练数据进行微调实验,以促进在 MatSci-NLP 任务中的推广。我们在这种低资源训练环境中进行的实验表明,在科学文本上预训练的语言模型比在一般文本上训练的 BERT 表现更好。Mat-BERT 是一种专门针对材料科学期刊进行预训练的模型,通常在大多数任务中表现最佳。此外,我们提出了一种用于 MatSci-NLP 多任务学习的统一文本到模式,并将其性能与传统微调方法进行了比较。在对不同训练方法的分析中,我们发现我们提出的受问答启发的文本到模式方法始终优于单任务和多任务 NLP 微调方法。代码和数据集是公开可用的 1 。
特定于领域的命名实体识别(NER)的意义,尤其是在法律和医学等领域,要求进行更深入的研究和实现。NER在医疗NLP中的作用如下:首先,NER有助于处理医学术语。医学ner使语言模型能够识别和处理医疗术语和行话。接下来,它有助于从非结构化数据中提取信息。实际上,Pearson等。(2021)已经执行了NER来重新移动或从非结构化医疗数据集中编码信息。此外,NER有助于敏感的患者特定信息的匿名性(Catelli等人,2021)。但是,医疗数据集不足是有问题的。这个问题变得更加具有挑战性,因为特定领域的NER任务需要广泛的标签,尤其是对于疾病,身体和治疗等特定实体类别。由于需要专家级知识,因此难以进一步放大。数据稀缺问题在诸如韩文等相对低资源的语言中会恶化。没有开源医疗数据集的韩国人证明了问题的严重性。为了解决数据稀缺问题,我们介绍了KBMC(韩国生物医生),这是第一个针对韩国的开源医疗数据集。我们利用chatgpt 1进行有效的句子创建。随后,我们注释了与生物格式下的疾病名称,身体部位和治疗相对应的实体。增加数据集并检查一般文本中的性能,