虽然大型语言模型(LLM)在自然语言处理中表现出了显着的功能,但它们在涉及知识图(kgs)的复杂,多步推理任务方面挣扎。现有的方法可以使LLM和KGS降低LLM的推理能力或由于紧张的态度而遭受非义务计算成本的能力。为了解决这些局限性,我们提出了一个名为Effiqa的新型协作框架,可以通过迭代范式在绩效和效率之间取得平衡。ef- fiqa包括三个阶段:全球计划,有效的KG探索和自我反思。具体来说,Effiqa利用LLMS通过全球计划探索潜在的推理途径的常识能力。然后,它将语义修剪卸载到一个小型插件模型中,以进行有效的kg探索。fi-Nely,探索结果被馈送到LLMS进行自我反思,以进一步改善全球计划和有效的KG探索。对多个KBQA基准测试的经验证据表明了Effiqa的有效性,在推理准确性和计算成本之间取得了平衡。我们希望提出的新框架将通过集成LLM和KGS来实现高效,知识密集的查询,从而促进对基于知识的问题答案的未来研究。
主要关键词