自动论文评分 (AES) 是一种评估和评分书面散文的计算机技术 (Shermis and Barrera, 2002)。它旨在提供自动评分论文或尽量减少人工参与的计算模型。该研究领域始于 1966 年 Page (Page, 1966) 的 Project Essay Grader 系统,根据 Ke 和 Ng (Ke and Ng, 2019) 的说法,该系统自那时起一直沿用至今。AES 是自然语言处理 (NLP) 最重要的教育应用之一 (Ke and Ng, 2019; Beigman Klebanov et al., 2016)。它涵盖了一些其他领域,例如认知心理学、教育测量、语言学和书面研究(Shermis 和 Burstein,2013)。他们共同致力于研究帮助教师进行自动评估的方法,在评分论文时提供比人类更便宜、更快、更确定的方法。对于葡萄牙语,由于公开可用的语料库(Marinho 等人),该领域已引起 ENEM 论文评分社区的关注(,
抽象的几何形状是在统计中的不同几何形状的应用,在统计中,Fisher-Rao指标在统计歧管上用作Riemannian指标,为参数灵敏度提供了内在特性。在本文中,我们探索了使用非富米系统的Fisher-Rao指标。通过近似非温米特式哈密顿量中的Lindblad Master方程,我们计算了量子几何度量的时间演变。最后,我们举例说明了假想磁场的量子旋转模型,探索了Pt -Ammetric Hamiltonian的能量光谱和几何度量的演化,并讨论在对控制Hamiltonian的条件下,可以消除虚电场的耗散效果,以提高Hamiltonian的估算,以提高Hamiltonian的估算,以提高参数的准确性。
顾名思义,语言的上下文表示语言表示通常是由于其编码上下文的能力而动机。这些表示形式捕获了上下文的哪些方面?我们采用了一种使用代表性相似性分析(RSA)来解决这个问题的方法。作为案例研究,我们研究了动词嵌入动词的主题的程度,代词嵌入的代词编码代词的前提,并且一个全句子表示编码句子的头部单词(由依赖性parse确定)。在所有情况下,我们都表明,伯特的上下文化嵌入反映了所研究的语言依赖性,而伯特的依赖性比编码语言较低的偏见对照的程度更大。这些结果证明了我们的方法在假设之间裁定上下文的哪个方面在语言表示中编码的能力。
[正如我第14周讲座所述,变压器学习了输入的注意力图。忽略批处理轴,如果您在其输入中喂食[n w,m]张量,其中n w是元素的数量(令牌,补丁等)在每个元素的嵌入矢量表示的大小中,变压器的输出也将被形成[N W,M],但有所不同。当您将学习的Q和k t张量乘以最终输出时,您将获得一个N W×N W数组,该数组是输入序列的N W元素上的注意力图。注意力图数组的元素(i,j)指示输入中的ith元素在同一输入中的j th元素中何种程度。 ]
摘要近年来,GPT-3,BERT和GPT-4(例如GPT-3,BERT和GPT-4)的大型语言模型在自然语言处理领域取得了重大进步,增强了诸如文档摘要,语言翻译和问题答案之类的任务。尽管有这些好处,但这些模型产生的文本的真实性和信誉引起了社会问题,包括错误信息和窃。为了解决这些问题,PAN组织已经启动了一系列任务,以区分机器生成的文本和人文所写的文本。本文提出了基于Bert和Bilstm的生成AI作者身份验证模型,该模型通过将变压器编码器与多文本特征技术相结合,从而增强了文本歧视功能。该模型利用了预处理的BERT进行深度特征提取,并结合了由Spacy计算出的其他文本功能,由Bilstm和Transformer编码器进一步处理进行分类。实验结果表明,该模型在PAN验证数据集上达到平均得分为0.971,超过了所有基线模型。这种方法不仅提高了检测准确性,而且还提高了对各种文本类型的适应性,这对于保持自动内容生成时代的信息的真实性和可靠性至关重要。
摘要随着大型语言模型(LLM)继续以惊人的速度前进并越来越广泛地采用,人们越来越难以辨别给定文本是由人类还是机器编写的。作者身份验证已成为一项至关重要且具有挑战性的任务。本文采用了一种文本分类模型,该模型结合了BERT和卷积神经网络(CNN),以利用Bert强大的上下文理解能力和CNN有效的本地功能提取能力来增强文本分类性能。CNN的引入有效地弥补了Bert在短语级别提取特征的缺点,尤其是在捕获文本中的本地特征(例如捕获N-gram特征)时。实验结果表明,我们的方法的表现高于基线模型,在ROC-AUC度量中提高了高达6%,平均度量指标近3%。因此,我们验证了这种方法的有效性。
摘要在本文中,我们在Clef 2024介绍了自动幽默分析(Joker)实验室的工作。小丑实验室的目的是研究幽默的自动处理,其中包括诸如检索,分类和解释各种形式的幽默文本等任务。我们的任务涉及将幽默文本分类为不同类型的不同类型,我们采用了两种不同的方法。这些方法涉及BERT(变压器架构)和传统的机器学习模型(例如随机森林分类器)的使用。在这两种模型中,伯特的精度得分较高,为0.6731。从中,我们得出的结论是,伯特在大多数自然语言过程中都更好。我们展示了有关培训数据的实验,并且在即将出版的页面中介绍了所提供的测试数据集的结果。
抽象生成的AI作者身份验证旨在识别给定文本中人类撰写的文本。本文介绍了我们针对PAN 2024生成AI作者身份身份验证任务的方法。我们将这项任务框起来是单个文本的二进制分类问题。最初,我们利用数据增强技术来平衡最初的不平衡数据集并在单个文本上训练了模型。此外,我们采用了正则辍学方法来进一步优化模型训练。对于给定的文本,该模型分别处理每个文本以进行推理。最后,使用完全连接的层进行分类,选择具有较高人类自作者评分的文本作为答案。我们的方法在官方测试集上的平均得分为0.99。
保留所有权利。未经许可不得重复使用。 (未经同行评审认证)是作者/资助者,他已授予 medRxiv 永久展示预印本的许可。此预印本的版权所有者此版本于 2021 年 6 月 22 日发布。;https://doi.org/10.1101/2021.06.14.21258875 doi:medRxiv 预印本
摘要。知识追踪领域(KT)旨在通过分析他们的历史行为数据来了解学生如何随着时间的推移学习和掌握知识。为了实现这一目标,许多研究人员提出了使用智能辅导系统(ITS)的数据来预测学生随后的行动的KT模型。然而,随着其大规模数据集的发展,包含长期数据的大规模数据集开始出现。最近基于深度学习的KT模型在处理包含长期数据的大规模数据集时面临着低效率,低精度和低解释性的障碍。To address these is- sues and promote the sustainable development of ITS, we propose a L STM B ERT-based K nowledge T racing model for long sequence data processing, namely LBKT , which uses a BERT-based architecture with a Rasch model-based embeddings block to deal with different difficulty levels information and an LSTM block to process the sequential char- acteristic in students' actions.LBKT在ACC和AUC指标上实现了大多数基准数据集的最佳性能。