Loading...
机构名称:
¥ 1.0

大型语言模型 (LLM) 可用作生物和化学信息库,以生成药理学先导化合物。然而,要使 LLM 专注于特定的药物靶点,通常需要使用逐步更精细的提示进行实验。因此,结果不仅取决于对靶点的了解,还取决于对提示工程的了解。在本文中,我们将提示分为可以以标准逻辑形式编写的领域约束和简单的基于文本的查询。我们研究是否可以引导 LLM,不是通过手动优化提示,而是通过自动优化逻辑组件,保持查询不变。我们描述了一个迭代过程 LMLF(“具有逻辑反馈的语言模型”),其中使用逻辑泛化概念逐步优化约束。在任何迭代中,都会根据约束验证新生成的实例,为下一次迭代对约束的优化提供“逻辑反馈”。我们使用两个众所周知的靶点(Janus 激酶 2 和多巴胺受体 D2 的抑制)和两个不同的 LLM(GPT-3 和 PaLM)来评估 LMLF。我们表明,从相同的逻辑约束和查询文本开始,LMLF 可以引导两个 LLM 生成潜在线索。我们发现:(a) LMLF 生成的分子的结合亲和力比现有基线的结合亲和力更偏向更高的结合亲和力;(b) LMLF 生成的分子比没有逻辑反馈的分子更偏向更高的结合亲和力;(c) 计算化学家的评估表明 LMLF 生成的化合物可能是新型抑制剂。这些发现表明,具有逻辑反馈的 LLM 可能提供一种生成新线索的机制,而无需领域专家获得复杂的快速工程技能。

使用具有逻辑反馈的 LLM 生成药物发现的新线索

使用具有逻辑反馈的 LLM 生成药物发现的新线索PDF文件第1页

使用具有逻辑反馈的 LLM 生成药物发现的新线索PDF文件第2页

使用具有逻辑反馈的 LLM 生成药物发现的新线索PDF文件第3页

使用具有逻辑反馈的 LLM 生成药物发现的新线索PDF文件第4页

使用具有逻辑反馈的 LLM 生成药物发现的新线索PDF文件第5页

相关文件推荐