不要急着抛弃人类全科医生而选择聊天机器人医生

德国和比利时的研究人员表示,我们不应该依赖人工智能 (AI) 获取有关药物的准确和安全信息,因为 AI 提供的一些信息可能是错误的或具有潜在危害的。他们向微软的搜索引擎和聊天机器人 Bing Copilot 询问了 10 个关于美国 50 种最常用处方药的常见问题,得到了 500 个答案。他们评估了这些答案的可读性、完整性和准确性,发现可读性的总体平均分数意味着需要医学学位才能理解其中的许多问题。作者说,即使是最简单的答案也需要中学教育的阅读水平。对于所提供信息的完整性,AI 答案的平均得分为 77%,最差只有 23%。至于准确性,24% 的案例中 AI 答案与既定的医学知识不符,3% 的答案完全错误。专家表示,只有 54% 的答案与科学共识一致。在对患者的潜在伤害方面,42% 的人工智能答案被认为会导致中度或轻度伤害,22% 会导致死亡或严重伤害。作者表示,只有大约三分之一(36%)被认为是无害的。专家总结说,尽管人工智能具有潜力,但患者咨询人类医疗保健专业人员仍然至关重要。

来源:Scimex

根据德国和比利时的研究人员的说法,根据德国和比利时的研究人员的说法,AI提供的某些信息可能是错误的或可能有害的,因此我们不应依靠人工智能(AI)来获得有关药物的准确和安全信息。他们询问了Bing Copilot -Microsoft的搜索引擎和聊天机器人-10个有关美国50种最常见的药物的常见问题,产生了500个答案。他们评估了这些知识,完整性和准确性,找到可读性的总体平均得分意味着需要医学学位才能理解其中的许多。作者说,即使是最简单的答案也需要中学教育阅读水平。  为了完整的信息,AI答案的平均得分为77%,最差的23%完成。为了准确,AI答案在24%的病例中与已建立的医学知识不符,而3%的答案是完全错误的。在20个不准确的聊天机器人答案的子集中,医疗保健专业人员评估了如果患者遵循聊天机器人的建议,则可能会造成可能的伤害。专家说,在额定的20个答案中,只有54%的人同意科学共识。在对患者的潜在伤害方面,这些AI答案中有42%被认为会导致中度或轻度伤害,而22%致死或严重伤害。作者说,只有大约三分之一(36%)被认为是无害的。专家总结说,尽管AI具有潜力,但对于患者咨询其人类医疗保健专业人员仍然至关重要。

媒体版本

来自:

BMJ Group

患者警告

和答案的复杂性可能会使他们在没有大学学位的情况下难以理解

BMJ质量与安全,

更重要的是,提供的答案的复杂性可能会使患者在没有学位教育的情况下完全理解他们,并补充说。

drugs.com