详细内容或原文请订阅后点击阅览
为医疗保健开发可靠的 AI 工具
我们在《自然医学》杂志上发表了与 Google Research 联合撰写的论文,该论文提出了 CoDoC(互补驱动的临床后备工作流程),这是一种 AI 系统,可以学习何时依赖预测性 AI 工具或听从临床医生对医学图像进行最准确的解释。
来源:DeepMind - 新闻与博客新研究提出了一种系统,用于确定假设医疗环境中预测性 AI 的相对准确性,以及系统何时应听从人类临床医生的意见
人工智能 (AI) 具有巨大潜力,可以增强人们在各行各业的工作方式。但要以安全负责的方式将 AI 工具融入工作场所,我们需要开发更强大的方法来了解它们何时最有用。
那么,什么时候 AI 更准确,什么时候人类更准确?这个问题在医疗保健领域尤为重要,因为预测性 AI 越来越多地用于协助临床医生的高风险任务。
今天在《自然医学》杂志上,我们发表了与 Google Research 的联合论文,该论文提出了 CoDoC(互补驱动的临床工作流程),这是一种 AI 系统,可以学习何时依赖预测性 AI 工具或听从临床医生的意见,以最准确地解释医学图像。
自然医学 自然医学CoDoC 探索了如何在假设的医疗环境中利用人机协作来提供最佳结果。在一个示例场景中,与常用的临床工作流程相比,CoDoC 将英国大型去识别乳房 X 线摄影数据集的假阳性数量减少了 25%,并且没有遗漏任何真阳性。
这项工作是与多个医疗保健组织合作完成的,包括联合国项目服务办公室的遏制结核病伙伴关系。为了帮助研究人员在我们的工作基础上提高现实世界中 AI 模型的透明度和安全性,我们还在 GitHub 上开源了 CoDoC 的代码。
GitHub 上的 CoDoC 代码CoDoC:人机协作的附加工具
在开发 CoDoC 时,我们有三个标准: