软件开发是一个持续、渐进的过程。开发人员会以小批量而非一次性大批量的方式不断改进软件。小批量的高频率使得使用有效的测试方法在有限的测试时间内检测出错误变得至关重要。为此,研究人员提出了定向灰盒模糊测试 (DGF),旨在生成针对特定目标位置进行压力测试的测试用例。与旨在最大化整个程序的代码覆盖率的基于覆盖范围的灰盒模糊测试 (CGF) 不同,DGF 的目标是覆盖潜在的错误代码区域(例如,最近修改的程序区域)。虽然先前的研究改进了 DGF 的几个方面(例如电源调度、输入优先级和目标选择),但很少有人关注改进种子选择过程。现有的 DGF 工具使用主要针对 CGF 定制的种子语料库(即一组覆盖程序不同区域的种子)。我们观察到,使用基于 CGF 的语料库会限制定向灰盒模糊测试器的发现错误的能力。为了弥补这一缺陷,我们提出了 TargetFuzz,这是一种为 DGF 工具提供面向目标的种子语料库的机制。我们将此语料库称为 DART 语料库,它仅包含与目标“接近”的种子。这样,DART 语料库就可以引导 DGF 找到目标,从而即使在有限的模糊测试时间内也能暴露漏洞。对 34 个真实漏洞的评估表明,与基于 CGF 的通用语料库相比,配备 DART 语料库的 AFLGo(一种最先进的定向灰盒模糊测试器)可以发现 10 个额外的漏洞,并且平均暴露时间加快了 4.03 倍。
Hartwig,Kalvin,Evan Lucas和Timothy Havens。 “使用小型语料库来识别东方和西南ojibwe的单词。” 自然研讨会会议录Hartwig,Kalvin,Evan Lucas和Timothy Havens。“使用小型语料库来识别东方和西南ojibwe的单词。”自然研讨会会议录
摘要 本文介绍了一个原始的受控交互数据集,重点研究反馈项目。它包括由演员扮演的医生和患者之间的不同对话的记录。在这个语料库中,患者主要是倾听者,并产生不同的反馈,其中一些反馈不一致(自愿)。此外,这些对话已在虚拟现实环境中重新合成,其中患者由人工智能代理扮演。最终的语料库由不同的人与人对话电影以及在人机环境中重播的相同对话组成,从而产生了第一个人与人/人机平行语料库。然后,语料库在语言和非语言层面上用不同的多模态注释进行了丰富。此外,这是第一个此类数据集,我们设计了一个实验,在此期间,不同的参与者必须观看电影并对互动进行评估。在此任务中,我们记录了参与者的大脑信号。然后,Brain-IHM 数据集被构思用于三重目的:1/ 通过比较一致和不一致的反馈来研究反馈 2/ 比较人与人和人机产生的反馈 3/ 研究反馈感知的大脑基础。
我们介绍了一种新型的持续训练方法,即M elt(在E RIA L S-WARE继续前降雨中),该方法专门设计用于有效地适应材料科学的预训练的语言模型(PLM)。与以前仅着眼于构建领域特异性语料库的适应策略不同,鉴于材料科学语料库具有与其他领域不同的特征,因此全面考虑了语料库和培训策略。为此,我们首先通过构建语义图来从科学语料库中构建一个综合的材料知识库。杠杆作用,我们将课程整合到适应过程中,该过程始于熟悉和广义的概念,并逐渐朝着更加特殊的术语迈进。我们进行了各种基准测试的广泛实验,以验证M ELT的效率和一般性。一项综合评估令人信服地支持M ELT的强度,与现有的持续预训练方法相比,表现出了卓越的表现。对MELT的深入分析还表明,与现有的适应方法相比,MELT可以有效地代表材料实体,从而高出了其在广泛的材料科学1中的广泛适用性。
摘要 本文介绍了在开发最新版本的 Bicleaner(名为 Bicleaner AI)期间进行的实验,该工具旨在检测并行语料库中的噪声句子。该工具现在实现了一个新的神经分类器,使用基于预训练的基于 Transformer 的语言模型的最先进的技术,这些模型在二元分类任务上进行了微调。之后,执行并行语料库过滤,丢弃相互翻译概率较低的句子。我们的实验基于使用 Bicleaner AI 过滤的语料库对两种不同场景的神经机器翻译 (NMT) 进行训练,与之前基于极端随机树实现分类器的工具版本相比,翻译质量有显着提高。
国际现代英语计算机档案馆 (ICAME) ICAME 是一个由语言学家和信息科学家组成的国际组织,致力于研究英语机器可读文本。该组织的目标是收集和分发有关可用于计算机处理的英语材料以及已完成或正在进行的语言研究的信息,以机器可读的形式编纂英语文本语料库档案,并向研究机构提供材料。位于挪威卑尔根的挪威人文计算中心是计算机化英语语料库和语料库相关软件的分发中心。它出版 ICAME 期刊(以前称为 ICAME 新闻)并维护电子信息服务(有关详细信息,请参阅本期第 140 页)。自 1979 年以来一直安排会议。
摘要 本文介绍了一个原始的受控交互数据集,重点研究反馈项目。它包括由演员扮演的医生和患者之间的不同对话的记录。在这个语料库中,患者主要是倾听者,并产生不同的反馈,其中一些反馈不一致(自愿)。此外,这些对话已在虚拟现实环境中重新合成,其中患者由人工智能代理扮演。最终的语料库由不同的人与人对话电影以及在人机环境中重播的相同对话组成,从而产生了第一个人与人/人机平行语料库。然后,语料库在语言和非语言层面上用不同的多模态注释进行了丰富。此外,这是第一个此类数据集,我们设计了一个实验,在此期间,不同的参与者必须观看电影并对互动进行评估。在此任务中,我们记录了参与者的大脑信号。然后,Brain-IHM 数据集被构思用于三重目的:1/ 通过比较一致和不一致的反馈来研究反馈 2/ 比较人与人和人机产生的反馈 3/ 研究反馈感知的大脑基础。
我们在新颖地应用了既定的生态方法,以量化和比较简短的学生文本语料库中的语言多样性。构造的响应(CRS)是一种常见的评估形式,但由于文本长度限制而引起的传统词汇多样性方法很难评估。在本文中,我们检查了生态多样性度量和秩序技术的实用性,以通过与传统文本分析方法并行应用这些方法来量化短文中的差异,以列为先前研究的大学生CRS的语料库。CR是在两个时间点(定时),三种类型的高级机构(类型)以及三个级别的学生理解(思维)中收集的。使用以前的工作,我们能够预测,我们将根据思维观察到最大的差异,然后是时间安排,并且没有指望基于类型的差异,从而使我们能够测试这些方法对语料库进行分类检查的实用性。我们发现,将CRS相互比较的生态多样性指标(Whittaker的Beta,物种离职率和Bray -Curtis差异)是有益的,并且与我们在类别和其他文本分析方法中的差异和其他文本分析方法的差异非常相关。其他生态措施,包括香农和辛普森的多样性,衡量单个CR中语言的多样性。另外,通过将复杂的单词频率矩阵减少到二维图,定制提供了语料库的有意义的视觉表示。使用顺序图,我们能够观察CR语料库中的模式,以进一步支持我们对数据集的预测。这项工作为衡量短文中语言多样性的新方法建立了可用于检查学生语言差异以及可能与分类数据的关联的差异。
关于人类语言的基本问题之一是所有语言是否同样复杂。在这里,我们从信息理论的角度解决了这个问题。我们通过训练6500多个不同文档的语言模型对书面语言进行了大规模的定量跨语言分析,如41个多语言文本集合所示,其中包括约35亿个单词或约90亿个字符,涵盖2069种不同语言的语言,这些语言被用作本地语言的90%以上的本地语言。我们从统计学上推断每个语言模型的熵作为我们称为平均预测复杂性的索引。我们比较了整个语料库的复杂性排名,并表明一种比一种语料库中另一种语言更复杂的语言在另一个语料库中也往往更为复杂。此外,我们表明说话者人口大小可以预测熵。我们认为,从信息理论的角度来看,这两种结果均构成反对等高复杂性假设的证据。