为医疗保健开发可靠的 AI 工具

我们在《自然医学》杂志上发表了与 Google Research 联合撰写的论文,该论文提出了 CoDoC(互补驱动的临床后备工作流程),这是一种 AI 系统,可以学习何时依赖预测性 AI 工具或听从临床医生对医学图像进行最准确的解释。

来源:DeepMind - 新闻与博客

新研究提出了一种系统,用于确定假设医疗环境中预测性 AI 的相对准确性,以及系统何时应听从人类临床医生的意见

人工智能 (AI) 具有巨大潜力,可以增强人们在各行各业的工作方式。但要以安全负责的方式将 AI 工具融入工作场所,我们需要开发更强大的方法来了解它们何时最有用。

那么,什么时候 AI 更准确,什么时候人类更准确?这个问题在医疗保健领域尤为重要,因为预测性 AI 越来越多地用于协助临床医生的高风险任务。

今天在《自然医学》杂志上,我们发表了与 Google Research 的联合论文,该论文提出了 CoDoC(互补驱动的临床工作流程),这是一种 AI 系统,可以学习何时依赖预测性 AI 工具或听从临床医生的意见,以最准确地解释医学图像。

自然医学 自然医学

CoDoC 探索了如何在假设的医疗环境中利用人机协作来提供最佳结果。在一个示例场景中,与常用的临床工作流程相比,CoDoC 将英国大型去识别乳房 X 线摄影数据集的假阳性数量减少了 25%,并且没有遗漏任何真阳性。

这项工作是与多个医疗保健组织合作完成的,包括联合国项目服务办公室的遏制结核病伙伴关系。为了帮助研究人员在我们的工作基础上提高现实世界中 AI 模型的透明度和安全性,我们还在 GitHub 上开源了 CoDoC 的代码。

GitHub 上的 CoDoC 代码

CoDoC:人机协作的附加工具

在开发 CoDoC 时,我们有三个标准:

  • 非机器学习专家(如医疗保健提供者)应该能够部署系统并在一台计算机上运行它。
  • 训练需要的数据量相对较少 - 通常只有几百个示例。
  • 确定预测 AI 或临床医生何时更准确