详细内容或原文请订阅后点击阅览
人工智能健康建议?研究标记风险
为什么重要:人工智能健康建议?研究标记风险揭示了聊天机器人如何提供不安全、不准确的医疗指导。
来源:人工智能+人工智能健康建议?研究标记风险
人工智能健康建议?研究标记风险不仅仅是一个挑衅性的标题。随着 ChatGPT、Bard 和 Bing AI 等生成式人工智能工具成为健康信息的常见来源,这凸显了人们日益关注的问题。虽然这些平台提供的响应看起来深思熟虑且人性化,但最近的一项研究表明,它们经常在医疗准确性、紧急分类和可靠一致性等关键领域失败。这些缺点引发了人们对信任人工智能系统提供健康相关指导的安全性的质疑,特别是当个人可能咨询聊天机器人而不是有执照的专业人士时。
要点
研究概述:评估人工智能医疗准确性
该研究考察了 ChatGPT (OpenAI)、Bard (Google) 和 Bing AI (Microsoft) 处理医疗查询的能力。研究人员提交了一系列标准化健康问题,涉及症状分析、治疗建议和紧急评估等领域。他们将响应与经过验证的医疗来源(例如 USMLE 类型的考试标准)和 MedQA 等数据集进行比较。
执业医师对答案的精确知识使用、临床建议性和安全性进行了评估。特别是,他们评估了人工智能是否能够正确确定何时需要立即进行医疗干预或可以通过后续护理进行管理。
1. 分诊不准确
此类错误可能会导致危及生命的疾病的治疗延误,从而使患者安全面临风险。
