摘要 背景 搜索引擎通常是患者获取药物信息的主要资源。然而,由于人工智能 (AI) 聊天机器人的引入,搜索引擎市场正在迅速变化。患者与聊天机器人互动对用药安全的影响在很大程度上仍未得到探索。 目的 探讨搜索引擎中集成的人工智能聊天机器人提供的答案的质量和潜在的安全问题。 方法 向 Bing copilot 询问了 10 个患者常见问题,这些问题涉及美国门诊市场上 50 种最常用的处方药。患者的问题涵盖了药物适应症、作用机制、使用说明、药物不良反应和禁忌症。使用 Flesch 阅读难易度评分评估聊天机器人答案的可读性。根据药学百科全书 drugs.com 中相应的患者药物信息评估完整性和准确性。在预先选择的一组不准确的聊天机器人答案上,医疗保健专业人员评估了如果患者遵循聊天机器人给出的建议,可能造成伤害的可能性和程度。结果在生成的 500 个聊天机器人答案中,根据 Flesch 阅读难易度评分,整体可读性表明答案难以阅读。聊天机器人答案的总体中位完整性和准确性分别为 100.0%(IQR 50.0–100.0%)和 100.0%(IQR 88.1–100.0%)。在 20 个聊天机器人答案中,专家发现 66%(95% CI 50% 至 85%)具有潜在危害。如果患者听从聊天机器人的建议,这 20 个聊天机器人答案中有 42%(95% CI 25% 至 60%)可能造成中度至轻度伤害,22%(95% CI 10% 至 40%)可能造成严重伤害甚至死亡。结论人工智能聊天机器人能够提供整体完整和准确的患者药物信息。然而,专家认为相当多的答案是不正确的或具有潜在危害的。此外,聊天机器人答案的复杂性可能会限制患者的理解。因此,医疗专业人士在推荐人工智能搜索引擎时应谨慎,直到出现更精确、更可靠的替代方案。
主要关键词