为医疗保健开发可靠的AI工具

我们已经发表了与Google Nature Medicine的联合论文,该论文提出了CODOC(互补性驱动的延期到临床工作流程),该系统是一种AI系统,该系统学习何时依靠预测性AI工具或延迟临床医生,以对医学图像进行最准确的解释。

来源:DeepMind - 新闻与博客

新研究提出了一个系统,以确定假设医学环境中预测性AI的相对准确性,以及该系统应递送到人类临床医生

人工智能(AI)具有巨大的潜力,可以增强人们在各个行业中的工作方式。但是,要以安全有负责任的方式将AI工具集成到工作场所中,我们需要开发更强大的方法来理解何时最有用的方法。

那么AI何时更准确,何时是人类?这个问题在医疗保健中尤为重要,在医疗保健中,预测性AI越来越多地用于高风险任务来协助临床医生。

今天在自然医学中,我们与Google Research发表了联合论文,该论文提出了CODOC(互补性驱动的延期至临床工作流程),该系统学会了何时依靠预测性AI工具或延迟临床医生来对医学图像进行最准确的解释。

自然医学

CODOC探讨了我们如何在假设的医疗环境中利用人类的合作来提供最佳结果。在一个示例场景中,与常用的临床工作流相比,CODOC将误报数量减少了25%,而不是任何真正的阳性。

这项工作是与几个医疗机构的合作,包括联合国项目服务的Stop TB Partnership。为了帮助研究人员建立我们的工作,以提高现实世界中AI模型的透明度和安全性,我们还在GitHub上开源的CODOC代码。

github上的codoc代码

codoc:人类协作的附加工具

构建更可靠的AI模型通常需要重新设计预测性AI模型的复杂内部工作。但是,对于许多医疗保健提供者来说,根本不可能重新设计一个预测性AI模型。 CODOC可能有可能帮助改善其用户的预测性AI工具,而无需他们修改基础AI工具本身。