详细内容或原文请订阅后点击阅览
AI公司已停止警告您,他们的聊天机器人不是医生
AI公司现在主要放弃了曾经标准的做法,即对健康问题的回应包括医疗免责声明和警告。实际上,许多领先的AI模型现在不仅会回答健康问题,甚至会提出随访并尝试诊断。此类免责声明为要求AI的人们提供了重要的提醒……
来源:MIT Technology Review _人工智能“今年有一天,”夏尔马说,“没有免责声明。”她很好奇要了解更多信息,她测试了OpenAI,Anthropic,DeepSeek,Google和Xai(共15总共)引入的几代模型,总共测试了他们如何回答500个健康问题,例如可以组合使用哪些药物,以及他们如何分析1,500次医学图像,例如胸部X射线,这些胸部X-Rays可能表明了Pneumonia。
结果在有关ARXIV的论文中发布的,尚未进行同行评审的结果令人震惊 - 超过2025年型号的1%的输出包括警告时,在回答医疗问题时,从2022年的26%下降了。仅超过1%的输出超过1%,分析医学图像的输出包括一个近20%的预期,在早些时候中,下降了几乎20%。 (要算作免责声明,以某种方式承认AI没有资格提供医疗建议,而不仅仅鼓励该人咨询医生。)
arxiv对于经验丰富的AI用户,这些免责声明可能会感觉像是形式的 - 将人们弄清楚了他们应该已经知道的东西,并且他们找到了从AI模型触发他们的方法。 Reddit上的用户已经讨论了使Chatgpt分析X射线或血液工作的技巧,例如,通过告诉医学图像是电影脚本或学校作业的一部分。
讨论但是,皮肤科医生兼生物医学数据科学助理教授Roxana Daneshjou表示,它们具有独特的目的,他们的失踪使AI错误会导致现实世界中的伤害。
“有很多头条新闻声称AI比医生更好,”她说。 “患者可能会因媒体上看到的消息而感到困惑,而免责声明提醒人们,这些模型并不是为了医疗服务。”
说 麻省理工学院技术评论“这会使人们不必担心此工具会幻觉或给您虚假的医疗建议,”他说。 “它正在增加用法。”