按照掩蔽语言建模 (MLM) 目标进行训练的多语言预训练语言模型 (multiPLM) 通常用于双语文本挖掘等跨语言任务。然而,这些模型的性能对于低资源语言 (LRL) 仍然不是最优的。为了改进给定 multiPLM 的语言表示,可以进一步对其进行预训练。这称为持续预训练。先前的研究表明,使用 MLM 进行持续预训练,随后使用翻译语言建模 (TLM) 进行预训练可以改进 multiPLM 的跨语言表示。然而,在掩蔽期间,MLM 和 TLM 都会给予输入序列中的所有标记相同的权重,而不管标记的语言属性如何。在本文中,我们引入了一种新颖的掩蔽策略,即语言实体掩蔽 (LEM),用于持续预训练步骤,以进一步改进现有 multiPLM 的跨语言表示。与 MLM 和 TLM 相比,LEM 将掩码限制在语言实体类型名词、动词和命名实体上,这些实体在句子中占据更重要的地位。其次,我们将掩码限制在语言实体范围内的单个标记上,从而保留更多上下文,而在 MLM 和 TLM 中,标记是随机掩码的。我们使用三个下游任务评估 LEM 的有效性,即双语挖掘、并行数据管理和代码混合情感分析,使用三种低资源语言对英语-僧伽罗语、英语-泰米尔语和僧伽罗语-泰米尔语。实验结果表明,在所有三个任务中,使用 LEM 持续预训练的多 PLM 优于使用 MLM+TLM 持续预训练的多 PLM。
本文研究了Fincausal 2025共享任务中使用大型语言模型(LLMS)进行财务因果关系检测,这是对生成和多语言问题答案(QA)任务的努力。我们的研究采用了生成性和歧视方法,利用GPT-4O用于生成质量质量质量和基本基础式的,XLM-ROBERTA-LARGE和XLM-ROBERTA-BASE,用于跨英语和西班牙数据集的多语言质量检查。数据集由财务披露组成,问题反映了因果关系,并与直接从文本得出的提取答案配对。使用序列答案相似性(SAS)和精确匹配(EM)指标进行评估。虽然XLM-Roberta-large模型取得了最佳总体表现,但在English中排名第五(SAS:0.9598,EM:0.7615),西班牙语中排名第四(SAS:0.9756,EM:0.8084),在11个团队中,我们的结果也很高,在11个团队中,也可以强大的结果。值得注意的是,GPT-4O在几乎没有的设置中取得了令人鼓舞的结果,SAS得分接近了微调判别模型的分数,表明尽管缺乏特定于任务特定的微调,但生成性的AP可以提供竞争性能。此比较强调了一般LLM作为强大的多功能替代方案的潜力,用于复杂的质量质量质量质量因果关系检测。
大语言模型(LLM)的兴起,例如GPT-4,已大大增加了各种数字平台上AI生成的内容的量。这些模型可以生成连贯和上下文相关的文本,从而使用户难以区分人类和机器生成的内容。AI生成的内容的重新上升使许多人质疑信息的可信度和可靠性,尤其是关于新闻,学术界和社交媒体的信息,而内容的完整性至关重要。这使得需要开发有效的方法将AI生成的内容检测到历史高(Fraser等人,2024)。最近在LLM的能力中获得的收益为他们的发现带来了新的挑战。ap-诸如使用Human的反馈和指导调整的加固学习之类的方法使这些模型更具多功能性,以遵循甚至连接提示,从而产生合理的响应,从而进一步使检测问题复杂化(Abdali等人。,2024)。依赖于识别单词选择,句子结构或困惑模式的传统检测方法通常不太适合,因为这些模型在模仿Hu-
最先进的神经检索者主要关注英语等高源语言,这阻碍了他们在涉及其他语言的检索中采用。当前通过杠杆化的多语言审计语言模式,可以证明缺乏非英语语言的高质量标记数据。但是,这些模型需要多种语言的大量特定于任务特定的微调,通常在训练阶段的语料库中以最少的反映语言表现较差,以在培训阶段之后结合新语言。在这项工作中,我们提出了一个新颖的模块化检索模型,该模型从单个高资源语言的丰富数据中学习,并有效地转移到各种语言,从而消除了对语言特定标记的数据的需求。我们的模型Colbert-XM展示了与现有的最新的多语言检索器相对的性能,这些猎犬在更广泛的数据集中以各种语言进行了培训。进一步的分析表明,我们的模块化方法具有高度的数据效率,有效地适应了分布数据,并大大减少了能耗和碳排放。通过证明其在零拍摄的Sce-Narios中的熟练程度,Colbert-XM标志着向更可持续和包容的检索系统的转变,从而使有效的信息可以使用多种语言获得。我们将公开发布社区的代码和模型。
Kjajamet,D.,Woillen Warking,R.,R.,J。(20244)。 div>评估多元文化和多文化路由中的认知能力:语言试验测试电池(积分版本)。 div>教育测试中心世纪(Lucket)和服务l'er l'e Innovationpépologiques(脚本)。 div>https://doi.org/10.48746/ bb2024l-e-17 <https://doi.org/10.48746/ bb2024l-e-17 <
本研究探讨了利用其他培训数据作为在多语言,mul-titask食谱分类问题中生成模型的教学提示。通过将不同的任务分配为其他问题,仅在细调中可用的数据中得出,我们旨在提高所有涉及所有任务和语言的序列到序列模型的分类性能。更重要的是,我们调查了迅速工程对微调过程中其他问题的影响,从而在帮助模型学习任务之间的隐藏相互作用中揭示了其重要作用。所提出的方法在加权多限量准确性(在三个目标分类任务上)的绝对改善分别为2.3%,6.22%和10.7%。最有效的其他动作是从补充数据中得出的问题,而模型的规模以及我们是否执行内域预训练并不能显着改善最终绩效。Our find- ings also underline the importance of training data selection and questioning strategies, es- pecially in underrepresented languages, where we obtained an absolute increase in accuracy of 34.8% in the few-shot setting and 30.33% in the 0-shot setting for an underrepresented language in a difficult main task, together with an increase from 0% to 97% in F1-score for the most underrepresented class.
多语言学习者/英语学习者的政策和参考指南报告是由纽约市教育部(NYC DOE)的多语言学习者办公室(OML)制作的。本指南为纽约DOE的政府和员工提供了支持和指导。本指南中的任何内容均无意创建,也不会创建任何可强制性的权利,补救措施,应享权利或义务。NYC DOE保留更改或暂停本指南的任何或所有部分的权利。
大型语言模式(LLM)的最新突破已围绕少数数据富含数据的语言。扩大超越一流公民语言的突破需要什么?我们的工作介绍了Aya,这是一种大量多语言的生成语言模型,遵循101种语言的说明,其中50%以上被认为是较低的资源。aya在大多数任务上都优于mt0和bloomz,同时将语言数量增加了两倍。我们引入了广泛的新评估套件,以扩大99种语言的多语言评估的最新评估,包括歧视和生成性任务,人类评估以及模拟的胜利率,涵盖了涵盖任务和分发性能的效果。fur-hoverore,我们对我们模型的最佳芬特混合物组成,数据修剪以及毒性,偏见和安全性进行了详细研究。
您能从中得到什么? gefördert vom 您或您的孩子参加这项研究不会获得任何直接好处。作为答谢,您的孩子将收到一份小礼物。从长远来看,您将帮助孩子们更好地学习德语。 我们是谁?您如何联系我们? 多特蒙德工业大学的 Sprache & Kommunikation (S&K) 电子邮件:tina.ghaemi@tu-dortmund.de 电话:+49 231 7554568 合作伙伴
在日益全球化的经济和劳动力市场的背景下,招聘机构面临着处理以各种语言,格式和样式编写的工作和工作申请的挑战。经常,这导致对求职者与工作机会相关的求职者的简历进行次优评估。为了应对这一挑战,我们提出了一个遵循“人类在线”方法的相互作用系统,积极涉及招聘人员参与工作机会 - 申请人简历匹配。该系统使用了一个微调的最先进的分类模型,该模型将求职者简历与欧洲技能,能力,资格和计算分类法的标签保持一致,以提议与候选人的CVS提供初步比赛。这场匹配是通过与招聘人员进行连续的LLM驱动相互作用来完善的,这最终在CV相关性得分和报告中证明它们是合理的。