摘要:在术后护理中,患者教育和随访对于提高护理质量和满意度至关重要。人工智能虚拟助手 (AIVA) 和大型语言模型 (LLM)(如 Google BARD 和 ChatGPT-4)提供了使用自然语言处理 (NLP) 技术解决患者查询的途径。但是,信息的准确性和适当性在这些平台上有所不同,因此需要进行比较研究以评估它们在该领域的功效。我们进行了一项研究,将 AIVA(使用 Google Dialogflow)与 ChatGPT-4 和 Google BARD 进行比较,评估准确性、知识差距和响应适当性。与 BARD 和 ChatGPT-4 相比,AIVA 表现出卓越的性能,准确度明显更高(平均值:0.9),知识差距更小(平均值:0.1)。此外,AIVA 的回答在适当性方面获得了更高的李克特分数。我们的研究结果表明,与通用的 LLM 相比,像 AIVA 这样的专业 AI 工具在提供术后护理的精确和上下文相关信息方面更有效。虽然 ChatGPT-4 显示出良好的前景,但其表现各不相同,特别是在口头互动方面。这凸显了定制 AI 解决方案在医疗保健领域的重要性,准确性和清晰度至关重要。我们的研究强调了进一步研究和开发定制 AI 解决方案的必要性,以解决特定的医疗环境并改善患者预后。
方法:从牛津大学医院数据库中提取了37至42个妊娠周期的单胎怀孕期间的胎儿心率记录,1991年至2021年。具有重大数据差距或不完整的DAWES-REDMAN分析的轨迹被排除在外。对于十个不良结果,仅考虑交付前48小时内执行的痕迹,与临床决策实践保持一致。使用基于临床指标的严格包含和排除标准建立了健康的队列。倾向得分匹配,控制胎龄和胎儿性别,确保了健康和不利结果同类群体之间的平衡比较。DAWES-REDMAN算法对FHR痕迹的分类为“符合标准”(福祉的指标)或“未满足的标准”(表明需要进一步评估),以了解预测性能指标的评估。性能,并针对各种风险流行进行了调整。