随着人工智能 (AI) 的最新进展,其在人类健康领域的应用继续受到关注。随着大量健康相关数据的生成和汇总,尤其是来自电子健康记录 (EHR) 和医学图像的数据,我们面临着一场人工智能革命,这场革命已被证明可以加速临床研究、优化医疗质量、提供数据驱动的临床决策支持,并最终改善患者的健康结果 (Rajpurkar 等人,2022 年)。此外,随着最近人们对 ChatGPT 等基于生成大型语言模型的工具的兴趣激增,人工智能有望进一步彻底改变医疗保健服务。然而,人们也越来越担心,由于监督和监管不足,人工智能可能会因其固有的偏见、缺乏透明度和缺乏可解释性而故意造成伤害,而这些对于获得其可信度至关重要,尤其是在临床实践中。尽管存在基于伦理的人工智能原则和报告指南,例如个人预后或诊断人工智能多变量预测模型的透明报告(TRIPOD-AI)(Collins 等人,2021 年)和医疗人工智能报告的最低信息(MINIMAR)(Hernandez-Boussard 等人,2020 年),但目前还没有任何指南同时涵盖透明度、公平性、可解释性和道德规范。最近,美国国家医学院正在与领先的生物伦理学、研究和患者倡导组织合作,制定人工智能行为准则,以支持公平和负责任地将人工智能用于医疗保健和研究。同样,作为其数字战略的一部分,欧盟委员会希望对人工智能进行监管(《人工智能法案》),以确保为这项创新技术的开发和使用提供更好的条件(欧盟委员会,2023 年)。健康和生物医学信息学处于医学 AI 的最前沿,因为信息学研究人员研究如何最佳地利用医学知识驱动的技术来造福临床医生、临床研究人员和患者,如果没有足够的投入,医学 AI 将无法实现其预期价值。
主要关键词