人工智能 (AI) 的几项重大创新(例如卷积神经网络、经验重放)都是基于对大脑的研究成果。然而,大脑研究成果需要很多年才能巩固,而转移到人工智能上则需要更多年。此外,这些研究成果是使用侵入性方法在非人类物种中得出的。对于人类独有的大脑功能,例如理解复杂的语言,没有合适的动物可以作为模型生物,因此机械理解就更加遥远了。在这篇论文中,我们提出了一个数据驱动的框架,通过在理解语言的人的大脑记录和自然语言处理 (NLP) 计算机系统之间建立直接联系来绕过这些限制。我们提供的证据表明,这种联系对神经语言学和 NLP 都有益。具体来说,我们表明该框架可以利用 NLP 神经网络的最新成功,实现有关大脑中上下文和任务相关意义构成的科学发现,并且我们首次提出证据,表明阅读时人的大脑活动测量可用于提高流行的深度神经网络语言模型的泛化性能。这些研究还促进了认知建模的进步,这可能对语言研究之外的领域有用。简而言之,这篇论文涉及多学科研究,为认知神经科学、神经语言学和自然语言处理做出了贡献。
主要关键词