ProVenTL:用于预测来自蛇毒的肽-蛋白质相互作用用于癌症治疗的迁移学习框架摘要肽-蛋白质相互作用(PepPI)的准确预测对于推进基于肽的抗癌药物设计至关重要。在本研究中,我们介绍了 ProVenTL,这是一种计算机辅助分子设计框架,它利用迁移学习和蛋白质语言模型嵌入来增强 PepPI 预测的准确性和可解释性。探索了两种互补策略:(i) 使用 Calloselasma rhodostoma 毒液肽和癌症相关蛋白的精选数据集对来自蛋白质数据库 (PDB) 的大规模 PepPI 数据进行预训练的 CAMP 模型,以及 (ii) 将 ProtT5 嵌入与堆叠自动编码器深度神经网络 (SAE-DN
Identifying interactions at scale for LLMs
了解复杂机器学习系统的行为,特别是大型语言模型 (LLM),是现代人工智能的一项关键挑战。可解释性研究旨在使决策过程......
SafetyPairs: Isolating Safety Critical Image Features with Counterfactual Image Generation
本文被 ICLR 2026 的可信人工智能原理设计 — 可解释性、稳健性和跨模态安全性研讨会接受。到底是什么导致特定图像不安全?系统地区分良性图像和有问题的图像是一个具有挑战性的问题,因为图像的细微变化(例如侮辱性手势或符号)可能会极大地改变其安全含义。然而,现有的图像安全数据集粗糙且模糊,仅提供广泛的安全标签,而没有隔离导致这些差异的特定特征。我们介绍...
Improving AI models’ ability to explain their predictions
麻省理工学院的研究人员开发了一种方法,通过从模型中提取学习概念来提高人工智能的可解释性,以实现更好的预测和清晰度。
Identifying Interactions at Scale for LLMs
了解复杂机器学习系统的行为,特别是大型语言模型 (LLM),是现代人工智能的一项关键挑战。可解释性研究旨在使决策过程对模型构建者和受影响的人类更加透明,这是迈向更安全、更值得信赖的人工智能的一步。为了获得全面的理解,我们可以通过不同的视角来分析这些系统:特征归因,它隔离驱动预测的特定输入特征(Lundberg & Lee,2017;Ribeiro et al.,2022);数据归因,将模型行为与有影响力的训练示例联系起来(Koh&Liang,2017;Ilyas 等人,2022);以及机械可解释性,它剖析了内部组件的功能(Conmy 等人,2023;Sharkey 等人,2025)。在这些观点