软件开发是一个持续、渐进的过程。开发人员不断以小批量而非一次性大批量的方式改进软件。小批量的高频率使得使用有效的测试方法在有限的测试时间内检测出错误变得至关重要。为此,研究人员提出了定向灰盒模糊测试 (DGF),旨在生成针对某些目标站点进行压力测试的测试用例。与旨在最大化整个程序的代码覆盖率的基于覆盖范围的灰盒模糊测试 (CGF) 不同,DGF 的目标是覆盖潜在的错误代码区域(例如,最近修改的程序区域)。虽然先前的研究改进了 DGF 的几个方面(例如电源调度、输入优先级和目标选择),但很少有人关注改进种子选择过程。现有的 DGF 工具使用主要为 CGF 定制的种子语料库(即一组覆盖程序不同区域的种子)。我们观察到,使用基于 CGF 的语料库限制了定向灰盒模糊测试器的错误查找能力。为了弥补这一缺陷,我们提出了 TargetFuzz,这是一种为 DGF 工具提供面向目标的种子语料库的机制。我们将此语料库称为 DART 语料库,它仅包含与目标“接近”的种子。这样,DART 语料库就可以引导 DGF 找到目标,从而即使在有限的模糊测试时间内也能暴露漏洞。对 34 个真实漏洞的评估表明,与基于 CGF 的通用语料库相比,配备 DART 语料库的 AFLGo(一种最先进的定向灰盒模糊测试器)可以发现 10 个额外的漏洞,并且平均在暴露时间上实现了 4.03 倍的加速。
软件开发是一个持续、渐进的过程。开发人员会以小批量而非一次性大批量的方式不断改进软件。小批量的高频率使得使用有效的测试方法在有限的测试时间内检测出错误变得至关重要。为此,研究人员提出了定向灰盒模糊测试 (DGF),旨在生成针对特定目标位置进行压力测试的测试用例。与旨在最大化整个程序的代码覆盖率的基于覆盖范围的灰盒模糊测试 (CGF) 不同,DGF 的目标是覆盖潜在的错误代码区域(例如,最近修改的程序区域)。虽然先前的研究改进了 DGF 的几个方面(例如电源调度、输入优先级和目标选择),但很少有人关注改进种子选择过程。现有的 DGF 工具使用主要针对 CGF 定制的种子语料库(即一组覆盖程序不同区域的种子)。我们观察到,使用基于 CGF 的语料库会限制定向灰盒模糊测试器的发现错误的能力。为了弥补这一缺陷,我们提出了 TargetFuzz,这是一种为 DGF 工具提供面向目标的种子语料库的机制。我们将此语料库称为 DART 语料库,它仅包含与目标“接近”的种子。这样,DART 语料库就可以引导 DGF 找到目标,从而即使在有限的模糊测试时间内也能暴露漏洞。对 34 个真实漏洞的评估表明,与基于 CGF 的通用语料库相比,配备 DART 语料库的 AFLGo(一种最先进的定向灰盒模糊测试器)可以发现 10 个额外的漏洞,并且平均暴露时间加快了 4.03 倍。
摘要《人工智能与法律》杂志第一期于 1992 年出版。本文对该杂志创刊第二个十年的九篇重要论文进行了评论。其中四篇论文涉及法律案例推理、引入背景考虑、根据案例的自然语言描述预测结果、比较不同的案例表示方式以及形式化先例推理。其中一篇介绍了一种在人工智能与法律领域得到广泛应用的论证分析方法,即论证方案。其中两篇涉及用于表示法律概念的本体,两篇利用本十年日益增多的法律语料库,自动进行文档摘要和论证挖掘。
12 在威慑理论中,“胁迫”是威慑和强迫所处的总体概念。两者之间的区别很微妙,但很重要;威慑力图劝阻对手采取行动,而强迫则旨在迫使对手采取期望的行动。因此,威慑通常适用于和平时期或冲突前,而强迫通常适用于冲突期间。见 Echevarria,A.《军事战略:非常简短的介绍》,牛津(纽约)2017 年,第 47-50 页。13 Mazarr,Michael J.,《理解威慑》。加州圣莫尼卡:兰德公司,2018 年。hCps://www.rand.org/pubs/perspecves/PE295.html,第 7 页。
当代语言技术发展的进步通常依赖于广泛使用语言的大量数据集,忽略了较小的语言社区的细微差别。卢森堡(Luxembourgish)传统上嵌入了丰富的多语言环境中的语言,提供了令人信服的反叙事。本演讲说明了国家政府如何通过在记录卢森堡语言的使命中优先考虑深度来重新定义进步。在没有大量数据集的情况下,通常由大语言模型利用,卢森堡语言中心利用了小的,上下文丰富的语料库,可以在卢森堡的计算语言学方面进步,这些卢森堡的计算语言学是由深层语言专业知识和文化嵌入性塑造的。这强调了文化情报在完善和扩展语言技术的应用中的重要作用。
用于 AI 模型的训练数据集,特别是用于训练语言模型的数据集。图书馆提供对大量文本语料库的访问,并促进 AI 内容的许可。加拿大大学图书馆非正式报告称,研究人员因学术出版商的糟糕工具和 AI 研究的高许可成本而受阻。这些工具价格昂贵、专有,并且缺乏研究人员所需的功能。TDM 活动的许可成本现在是大型跨国出版商的收入来源,要求图书馆多次支付使用相同内容的费用,尽管用途不同。此类行动体现了将所有用途商品化并从而缩小公共资源的动力,威胁公共利益并破坏了《版权法》在用户和权利人之间的平衡。
印度理工学院巴特那分校的人工智能-自然语言处理-机器学习 (AI-NLP-ML) 研究小组 (http://www.iitp.ac.in/~ai-nlp-ml/) 正在招募多个职位,这些职位属于一项着名的研发项目,名为“COIL-D:印度语言数据中心”,由印度政府旗舰项目 Bhasini 资助。该项目旨在创建印度语言之间的机器翻译 (MT) 语言资源、词性标注、NER、ASR、TTS 的基准语料库;开发 NMT 模型,研究 LLM 对 MT 的能力;为包括 MT、NER、NLG、情感和 TTS 在内的各种任务创建排行榜。仅邀请以规定格式申请该研究所开展的纯时间限制研究项目中的以下任务。
印度理工学院巴特那分校的人工智能-自然语言处理-机器学习 (AI-NLP-ML) 研究小组 (http://www.iitp.ac.in/~ai-nlp-ml/) 正在招募多个职位,这些职位属于一个着名的研发项目,名为“COIL-D:印度语言数据中心”,由印度政府旗舰任务 Bhasini 、Meity 资助。该项目旨在创建印度语言之间的机器翻译 (MT) 语言资源、PoS 标记、NER、ASR、TTS 的基准语料库;开发 NMT 模型,研究 LLM 对 MT 的能力;为包括 MT、NER、NLG、情感和 TTS 在内的各种任务创建排行榜。仅邀请以规定格式申请该研究所开展的纯时间限制研究项目中的以下任务。序号。
当前开发广义自动睡眠阶段方法的方法依赖于通过利用不同个体的脑电图(EEG)来构建大型标记的培训和测试语料库。但是,训练集中的数据可能显示出脑电图模式的变化,这与测试集中的数据非常不同,这是由于固有的受试者间可变性,获取硬件的异质性,不同的蒙太奇选择和不同的录制录制环境。培训对此类数据的算法,而无需说明这种多样性会导致表现不佳。为了解决此问题,研究了不同的方法,用于学习数据集中所有个体的不变表示。但是,语料库的所有部分都不相同。因此,有力地对齐不可转移的数据可能会对整体绩效产生负面影响。受到临床医生如何手动标记睡眠阶段的启发,本文提出了一种基于对抗性训练的方法,以及注意机制,以从不同数据集中提取跨个体的传播信息,并注意更重要或相关的渠道和可转移的数据的数据集。Using two large public EEG databases - 994 patient EEGs (6,561 hours of data) from the Phys- ionet 2018 Challenge (P18C) database and 5,793 patients (42,560 hours) EEGs from Sleep Heart Health Study (SHHS) - we demonstrate that adversarially learning a network with attention mechanism, significantly boosts performance compared to state-of-the-art deep learning approaches in the跨数据库方案。通过将SHH视为训练集,提出的方法平均将精度从0.72提高到0.84,灵敏度从0.74提高到0.74,而Cohen的Kappa kappa系数从0.64到0.80,则在P18C数据库中的敏感性从0.64提高到0.80。
摘要 本文介绍了在开发最新版本的 Bicleaner(名为 Bicleaner AI)期间进行的实验,该工具旨在检测并行语料库中的噪声句子。该工具现在实现了一个新的神经分类器,使用基于预训练的基于 Transformer 的语言模型的最先进的技术,这些模型在二元分类任务上进行了微调。之后,执行并行语料库过滤,丢弃相互翻译概率较低的句子。我们的实验基于使用 Bicleaner AI 过滤的语料库对两种不同场景的神经机器翻译 (NMT) 进行训练,与之前基于极端随机树实现分类器的工具版本相比,翻译质量有显着提高。
