详细内容或原文请订阅后点击阅览
解决医疗保健中的人工智能怀疑论:克服安全通信的障碍
医疗保健领导者热衷于拥抱人工智能,部分原因是为了跟上竞争对手和其他行业的步伐,但更重要的是,为了提高效率和改善患者体验。然而,只有 77% 的医疗保健领导者真正相信人工智能能使他们的业务受益。虽然人工智能聊天机器人擅长处理日常任务、处理数据和总结信息,但受到严格监管的 […] 文章《解决医疗保健领域的人工智能怀疑论:克服安全通信的障碍》首次出现在 Unite.AI 上。
来源:Unite.AI医疗保健领导者热衷于拥抱人工智能,部分原因是为了跟上竞争对手和其他行业的步伐,但更重要的是,为了提高效率和改善患者体验。然而,只有 77% 的医疗保健领导者真正相信人工智能能使他们的业务受益。
77% 的医疗保健领导者虽然人工智能聊天机器人擅长处理日常任务、处理数据和总结信息,但受到严格监管的医疗保健行业最担心的是这些工具输入和解释的数据的可靠性和准确性。如果没有正确使用和员工培训,数据泄露将成为额外的紧迫威胁。
即便如此,95% 的医疗保健领导者计划在 2025 年将人工智能预算增加高达 30%,大型语言模型 (LLM) 将成为最值得信赖的工具之一。随着 LLM 的成熟,53% 的医疗保健领导者已经实施了正式政策来帮助他们的团队适应它们,另有 39% 的领导者计划很快实施政策。
大型语言模型对于希望通过 AI 简化通信服务但仍对此持谨慎态度的医疗保健提供商,以下是克服最常见障碍的一些建议。
1. 使用可靠的医疗资源训练 AI
虽然医疗保健领导者可能不直接参与 AI 培训,但他们必须在监督其实施方面发挥关键作用。 他们应该确保聊天机器人提供商正在使用可靠的来源培训和定期更新他们的 AI。
强制性电子健康记录 (EHR) 捕获的丰富结构化数据提供了大量的数字健康数据存储库,现在可以作为训练 AI 算法的基础。 高级 LLM 可以理解医学研究、技术分析、文献综述和批判性评估。 然而,新证据表明,与使用所有数据一次训练这些工具相比,专注于较少数量的交叉点可以最大限度地提高 AI 性能,同时保持较低的培训成本。
证据 可用性 不满意 研究 调查