详细内容或原文请订阅后点击阅览
“直肠大蒜插入以支持免疫”:专家称,医疗聊天机器人自信地给出灾难性的误导性建议
人工智能聊天机器人会受到医学术语中的错误信息的诱惑,导致它们给出潜在危险的建议。
来源:LiveScience根据《柳叶刀数字健康》杂志一月份的一项研究,流行的人工智能聊天机器人在以自信、听起来像医学的语言表达虚假健康声明时,往往无法识别虚假健康声明,从而导致可能对公众造成危险的可疑建议,例如建议人们将蒜瓣插入屁股。另一项研究发表在《自然医学》杂志上,该研究发现聊天机器人并不比普通的互联网搜索更好。
专家告诉《Live Science》,越来越多的证据表明,此类聊天机器人并不是可靠的健康信息来源,至少对于普通公众来说是这样。
这很危险,部分原因在于人工智能传递不准确信息的方式。
“核心问题是法学硕士不会像医生那样失败,”西奈山医学中心的研究科学家、《柳叶刀数字健康》研究的合著者马哈茂德·奥马尔博士在一封电子邮件中告诉《生活科学》。 “不确定的医生会停下来,对冲,要求另一次测试。法学硕士以与正确答案完全相同的信心给出错误答案。”
“直肠大蒜插入以支持免疫”
法学硕士旨在以听起来自然的文本响应书面输入,例如医学查询。 ChatGPT 和 Gemini,以及基于医学的法学硕士,如 Ada Health 和 ChatGPT Health,接受了大量数据的培训,阅读了大量医学文献,并在医疗执照考试中取得了近乎完美的分数。
人们正在广泛使用它们:尽管大多数法学硕士都警告说不应依赖它们来获取医疗建议,但每天仍有超过 4000 万人向 ChatGPT 寻求医疗问题。
但在 1 月份的研究中,研究人员评估了法学硕士处理医疗错误信息的能力,测试了 20 个模型,其中包含来自公共论坛和社交媒体对话的超过 340 万条提示、经过编辑以包含单个错误建议的真实医院出院记录,以及经医生批准的捏造账户。
