麻省理工学院的科学家调查临床人工智能时代的记忆风险

新研究展示了如何测试人工智能模型,以确保它们不会因泄露匿名患者健康数据而造成伤害。

来源:MIT新闻 - 人工智能

患者隐私有什么用?希波克拉底誓言被认为是世界上最早、最广为人知的医学伦理文本之一,其中写道:“无论我在患者的生活中看到或听到什么,无论是否与我的专业实践有关,不应该对外谈论,我都会保守秘密,因为我认为所有这些事情都是私人的。”

在数据匮乏的算法和网络攻击时代,隐私变得越来越稀缺,医学是少数仍以保密性为实践核心的领域之一,使患者能够信任医生掌握敏感信息。

但麻省理工学院研究人员共同撰写的一篇论文研究了在去识别化电子健康记录 (EHR) 上训练的人工智能模型如何能够记住患者的特定信息。这项工作最近在 2025 年神经信息处理系统 (NeurIPS) 会议上发布,建议采用严格的测试设置,以确保有针对性的提示不会泄露信息,并强调必须在医疗保健环境中评估泄漏,以确定其是否会严重损害患者隐私。

在 EHR 上训练的基金会模型通常应该利用许多患者记录来概括知识以做出更好的预测。但在“记忆”中,该模型利用单一的患者记录来提供其输出,这可能会侵犯患者的隐私。值得注意的是,众所周知,基础模型容易发生数据泄漏。

不良行为者需要多少信息才能泄露敏感数据,泄露的信息会带来哪些风险?为了评估这一点,研究团队开发了一系列测试,他们希望这些测试能为未来的隐私评估奠定基础。这些测试旨在测量各种类型的不确定性,并通过测量各种级别的攻击可能性来评估其对患者的实际风险。