研究人员表示,医疗领域的人工智能应该受到监管,但不要忘记算法
在最近的一篇评论中,麻省理工学院、Equality AI 和波士顿大学的团队强调了医疗保健领域对人工智能模型和非人工智能算法的监管存在差距。
来源:MIT新闻 - 人工智能有人可能会说,医生的主要职责之一是不断评估和重新评估可能性:医疗程序成功的几率有多大?患者是否有出现严重症状的风险?患者何时应该回来接受更多检查?在这些关键的审议中,人工智能的兴起有望降低临床环境中的风险,并帮助医生优先照顾高危患者。
尽管人工智能潜力巨大,但麻省理工学院电气工程与计算机科学系 (EECS)、Equality AI 和波士顿大学的研究人员呼吁监管机构加强对人工智能的监督,这篇新评论发表在《新英格兰医学人工智能杂志》(NEJM AI) 10 月刊上,此前美国卫生与公众服务部 (HHS) 的民权办公室 (OCR) 根据《平价医疗法案》(ACA) 发布了一项新规定。
一条新评论 新英格兰医学杂志人工智能 (NEJM AI)5 月,OCR 在 ACA 中发布了一项最终规则,禁止在“患者护理决策支持工具”中基于种族、肤色、国籍、年龄、残疾或性别进行歧视,“患者护理决策支持工具”是一个新设立的术语,涵盖医学中使用的人工智能和非自动化工具。
一条最终规则该最终规则是为了响应乔·拜登总统 2023 年关于安全、可靠和值得信赖的人工智能开发和使用的行政命令而制定的,它建立在拜登-哈里斯政府致力于通过重点防止歧视来促进健康公平的承诺之上。
关于安全、可靠和值得信赖的人工智能开发和使用的行政命令 截至 10 月然而,研究人员指出,尽管大多数美国医生(65%)每月都会使用这些工具来确定患者护理的下一步措施,但没有监管机构监督临床决策支持工具产生的临床风险评分。
监管会议 NEJM AI