VA 监管机构对医务人员使用人工智能发出警告

VA 正在使用包括 Microsoft Copilot 在内的两种 AI 聊天工具,但尚未经过患者安全办公室的审查。VA 后监管机构对医务人员使用 AI 发出的警告首先出现在任务和目的上。

来源:Task & Purpose

退伍军人事务部内部的监管机构周四针对 VA 医疗保健提供者目前使用的两种人工智能聊天工具发布了紧急建议,理由是“潜在的患者安全风险”。

医生并未使用人工智能来诊断患者,但监察长发现,当医生使用人工智能分析医疗信息和更新患者记录时,在某些情况下可能会出现问题。

公告称,这些系统可能容易产生错误信息、侵犯隐私和偏见,而且这些系统的实施未经 VA 自己的患者安全专家的审查。

当联系到对该建议发表评论时,该部门发言人 Pete Kasperowicz 表示,“VA 临床医生仅使用人工智能作为支持工具,有关患者护理的决定始终由相应的 VA 工作人员做出。”

退伍军人管理局自杀预防中心前执行主任马修·米勒博士告诉《Task & Purpose》,这份备忘录显然很紧急。

“这是来自[监察长办公室]的官方通讯,建议基于对患者安全的担忧‘停止压制’正在审查的人工智能工具,”米勒说。 “具体而言,[监察长办公室]在其审查中发现的信息表明,可能没有采取适当的面向流程的保障措施。”

曾于 2017 年和 2018 年担任 VA 秘书、现在为医疗保健公司提供技术咨询的 David Shulkin 博士表示,他认为该报告不应被视为“要求 VA 停止或放慢其工作的理由”。

两个聊天机器人,但很少监督

该咨询以初步结果咨询备忘录或 PRAM 的形式发布,只有两页长,并且不包括患者安全面临风险的具体案例。

减少“倦怠”的目标

向患者安全中心提出的任务和目的询问没有立即得到回复。

在收件箱中获取任务和目的

任务和目的视频