详细内容或原文请订阅后点击阅览
人工智能可以像医生一样推理——接下来会发生什么? |科学
基于文本的人工智能可以像医生一样思考;挑战在于实现安全的临床实施
来源:Science Magazine插图:MOOR STUDIO/GETTY IMAGES
大型语言模型 (LLM) 是人工智能 (AI) 算法,它们经过大量数据训练来学习模式,从而能够生成类似人类的响应。推理模型是法学硕士,具有在做出响应之前逐步解决问题的附加能力,从而反映了结构化思维。此类人工智能系统在评估医学知识方面表现良好,但它们是否能够在真实的诊断任务上匹配医生级别的临床推理仍然很大程度上未知。本期第 524 页,Brodeur
。 (
)表明,通过衡量人类医生在临床小插曲和现实世界紧急情况下的表现,人工智能现在似乎可以匹配或超过基于文本场景的医生级临床诊断推理。研究结果表明,迫切需要了解如何将这些工具安全地集成到临床工作流程中,并准备好与临床医生一起进行前瞻性评估。
人工智能有潜力支持广泛的医疗保健应用,从临床决策到医学教育以及提供面向患者的健康信息。法学硕士已通过医疗许可考试,并在结构化临床评估中表现良好,这提高了他们帮助缓解全球医疗保健劳动力短缺的前景。然而,通过考试并不等同于成为一名医生,在真实的临床任务中展示医生水平的表现是一项根本上更艰巨的挑战(
)。
尽管 o1 模型仅限于纯文本输入,但它们的推理能力、审议时间和处理多模式输入的能力在最近的模型中得到了显着提高,扩大了它们可以承担的任务的复杂性。值得注意的是,GPT-5.3 和 Gemini 3.1 Pro 等推理模型现在可以一起处理文本、图像、音频和视频。布罗德尔
尽管 Brodeur 的发现
布罗德
,
