摘要 - 在各个领域中广泛使用知识图在其中有效整合和更新信息带来了挑战。在合并上下文时,常规方法通常依赖于规则或基本的机器学习模型,这可能无法完全掌握上下文信息的复杂性和流动性。这项研究提出了一种基于强化学习(RL)的方法,特别是利用深Q网络(DQN)来增强将上下文集成到知识图中的过程。通过将知识图的状态考虑为环境将动作定义为集成上下文的操作并使用奖励功能来评估知识图质量后整合后的改进,该方法旨在自动开发最佳上下文集成的策略。我们的DQN模型将网络用作函数近似器,不断更新Q值以估计动作值函数,从而有效地集成了复杂和动态上下文信息。最初的实验发现表明,我们的RL方法在实现各种标准知识图数据集的精确上下文集成方面优于技术,突出了增强学习在增强和管理知识图方面的潜在和有效性。索引术语 - 知识图推理,强化学习,奖励成型,转移学习
主要关键词