Loading...
机构名称:
¥ 5.0

最近的研究已经看到了强大的神经网络语言模型的兴起,这些模型在计算上足够精确且神经合理,可以作为我们对大脑中语言处理的理解的跳跃基础。由于这些模型是为了优化类似目标(单词预测)而开发的,因此它们的大脑预测通常是相关的,即使模型在几个建筑和概念特征上有所不同,这对测试哪些模型特征与预测大脑中的语言处理最相关。在这里,我们通过综合新的句子刺激来解决这一挑战,这些刺激在一组语言模型的预测(“有争议的刺激”)之间最大程度地揭示了这一挑战,这些刺激(“有争议的刺激”)不会自然地发生在大型语言语言中。为此,我们开发了一个系统化此句子合成过程的平台,提供了一种轻松有效地测试不同基于模型的假设的方法。对这个平台的初步探索已经开始为我们提供一些直觉,即从不同的候选单词中选择如何影响所产生的句子的种类,以及哪些变化往往会产生有争议的句子。例如,我们表明分歧分数或句子模型之间的最大分歧量收敛。这种方法最终将使我们能够以最类似人类的方式确定哪些模型在预测大脑中的语言处理方面最成功,因此希望能够深入了解人类语言理解的机制。

综合有争议的句子来测试大脑...

综合有争议的句子来测试大脑...PDF文件第1页

综合有争议的句子来测试大脑...PDF文件第2页

综合有争议的句子来测试大脑...PDF文件第3页

综合有争议的句子来测试大脑...PDF文件第4页

综合有争议的句子来测试大脑...PDF文件第5页