KG-TRICK:统一文本和关系信息知识完成多语言知识图谱

多语言知识图谱 (KG) 为各种 NLP 应用程序提供高质量的关系和文本信息,但它们通常不完整,尤其是在非英语语言中。先前的研究表明,结合不同语言的 KG 信息有助于知识图谱完成 (KGC)(预测实体之间缺失关系的任务)或知识图谱增强 (KGE)(预测实体缺失的文本信息的任务)。尽管之前的研究已经将 KGC 和 KGE 视为独立的任务,但我们假设它们是……

来源:Apple机器学习研究

多语言知识图谱 (KG) 为各种 NLP 应用提供高质量的关系和文本信息,但它们通常不完整,尤其是在非英语语言中。先前的研究表明,结合不同语言 KG 的信息有助于知识图谱补全 (KGC)(预测实体之间缺失关系的任务)或知识图谱增强 (KGE)(预测实体缺失文本信息的任务)。尽管之前的努力将 KGC 和 KGE 视为独立的任务,但我们假设它们是相互依赖且互惠互利的。为此,我们引入了 KG-TRICK,这是一个新颖的序列到序列框架,它将多语言 KG 的文本和关系信息补全任务统一起来。KG-TRICK 证明:i)可以将 KGC 和 KGE 的任务统一到一个框架中;ii)结合多种语言的文本信息有利于提高 KG 的完整性。作为我们贡献的一部分,我们还推出了 WikiKGE10++,这是最大的手动策划的 KG 文本信息完成基准,它包含 10 种不同语言的 25,000 多个实体。