详细内容或原文请订阅后点击阅览
llms因素在推荐医疗治疗时
研究人员在患者信息中发现非临床信息(例如错别字,额外的空白空间和多彩语言)降低了AI模型的准确性。
来源:MIT新闻 - 人工智能可以通过患者信息中的非临床信息(例如错别字,额外的空白,缺少性别标记物或使用不确定,戏剧性和非正式语言)中的非临床信息来绊倒用于提出治疗建议的大型语言模型(LLM)。
他们发现,对消息进行风格或语法更改会增加LLM的可能性,建议患者自我管理其报告的健康状况,而不是预约,即使该患者应该寻求医疗服务。
他们的分析还表明,这些文本中的这些非临床变化(模仿人们的真正交流方式)更有可能改变模型对女性患者的治疗建议,从而导致较高比例的女性被错误地建议不要寻求医疗服务。
这项工作“是有力的证据表明,必须在医疗保健中使用之前对模型进行审核 - 这是他们已经在使用的环境,”麻省理工学院电气工程和计算机科学系(EECS)的副教授Marzyeh Ghassemi说,医学工程研究所的成员以及实验室科学研究所,实验室以及该研究系统的信息和决策系统,以及该研究的高级作者。
这些发现表明LLMS以先前未知的方式将非临床信息纳入了临床决策。研究人员说,这使得在将LLMS进行更严格的研究之前,需要阐明它们在将其用于高风险应用程序(例如提出治疗建议)之前。
“这些模型经常在体检问题上进行训练和测试,然后在远离此的任务中使用,例如评估临床病例的严重性。关于LLM的严重程度仍然如此,我们不知道。
纸混合消息
草稿临床注释和分类患者消息不一致的建议