人工智能 (AI) 及其子领域机器学习 (ML) 的进步几乎体现在生活的每个领域,包括前沿的健康研究。 1,2 然而,研究论文中描述的健康 AI/ML 系统中只有很小一部分进入临床实践。为了解决这个问题,儿童医院 (SickKids) 和 Vector 人工智能研究所 (Vector) 于 2019 年 10 月 30 日组织了 Vector-SickKids 健康 AI 部署研讨会,166 名临床医生、计算机科学家、政策制定者和医疗保健管理人员参加了会议。目的是展示 AI 从研究实验室走向临床的真实案例。演讲者来自加拿大和美国的各种机构,包括圣迈克尔医院、大学健康网络、滑铁卢大学、安大略公共卫生学院、安大略理工大学、密歇根大学、北加州凯撒医疗机构、约翰霍普金斯大学、宾夕法尼亚大学和杜克大学。每个项目所经历的成功和挑战为新兴的健康 AI 领域提供了宝贵的见解。要求每位发言者准备一个结构化的演讲,涉及以下主题:
• ML 的一个子集 • 通常利用人工神经网络 (ANN) 架构 • 结构化和非结构化数据(图像、文本、信号等) • 需要大量的训练数据和计算能力
医疗保健系统在确保人们的健康方面发挥着至关重要的作用。建立准确的诊断是这一过程的重要组成部分。由于消息来源强调误诊和漏诊是一个常见问题,因此必须寻求解决方案。诊断错误在急诊室很常见,急诊室被认为是一个压力很大的工作环境。当今的行业被迫应对快速变化的技术进步,这些进步导致系统、产品和服务的重塑。人工智能 (AI) 就是这样一种技术,它可以作为诊断问题的解决方案,但伴随着技术、道德和法律挑战。因此,本论文旨在研究人工智能如何影响诊断的准确性,以及它在医疗保健中的整合与技术、道德和法律方面的关系。本论文从文献综述开始,文献综述作为理论基础,并允许形成概念框架。概念框架用于选择受访者,结果对教授、研究人员、医生和政治家进行了 12 次采访。此外,还进行了一项调查,以获取公众对此事的看法。研究结果表明,人工智能已经足够成熟,能够做出比医生更准确的诊断,并以行政任务的形式减轻医务人员的负担。一个障碍是可用的数据不完整,因为法律阻碍了患者数据的共享。此外,人工智能算法必须适合所有社会少数群体,并且不能表现出种族歧视。欧洲人工智能联盟于 2018 年成立,旨在控制该技术。可以在国家和地区层面制定类似的举措,以保持对其正确使用的某种形式的控制。
交互式聊天机器人应用程序是现代时代的最新发明。医疗保健行业与人际交往密切相关,似乎像聊天机器人这样的对话式人工智能应用程序更为普遍。聊天机器人的响应方式应该让用户感觉自己正在与真人交谈。聊天机器人根据清晰的数据集和可持续的后端逻辑进行响应以生成结果。医疗聊天机器人通过以类似人类的方式与用户互动,简化了医疗保健提供者的工作并有助于提高他们的绩效。医疗保健领域的聊天机器人可能具有为患者提供即时医疗信息、在疾病出现的第一个迹象时推荐诊断或将患者与社区中合适的医疗保健提供者 (HCP) 联系起来的潜力。[3]
人工智能和机器学习 (AI/ML) 算法在医疗保健领域的发展日渐成熟,用于诊断和治疗各种医疗状况 ( 1 )。然而,尽管此类系统技术实力雄厚,但它们的采用却一直充满挑战,它们是否能真正改善医疗保健以及在多大程度上改善医疗保健仍有待观察。一个主要原因是,基于 AI/ML 的医疗设备的有效性在很大程度上取决于其用户的行为特征,例如,用户往往容易受到有据可查的偏见或算法厌恶的影响 ( 2 )。许多利益相关者越来越多地将预测算法所谓的黑箱性质视为用户持怀疑态度、缺乏信任和接受缓慢的核心原因 ( 3, 4 )。因此,立法者一直在朝着要求提供黑箱算法决策解释的方向发展 (5) 。事实上,学术界、政府和民间社会团体几乎一致支持可解释的 AI/ML。许多人被这种方法吸引,因为它既能利用不可解释的人工智能/机器学习(如深度学习或神经网络)的准确性优势,又能支持透明度、信任和采用。我们认为,这种共识至少在应用于医疗保健领域时,既夸大了要求黑盒算法可解释的好处,又低估了其弊端。
摘要背景:在人工智能 (AI) 应用于医疗保健领域时,可解释性是最受争议的话题之一。尽管人工智能驱动的系统已被证明在某些分析任务中表现优于人类,但缺乏可解释性仍然引发批评。然而,可解释性不是一个纯粹的技术问题,相反,它引发了一系列需要彻底探索的医学、法律、伦理和社会问题。本文对可解释性在医学人工智能中的作用进行了全面评估,并对可解释性对于将人工智能驱动的工具应用于临床实践的意义进行了伦理评估。方法:以基于人工智能的临床决策支持系统为例,我们采用多学科方法从技术、法律、医学和患者的角度分析了可解释性对医学人工智能的相关性。基于这一概念分析的结果,我们随后进行了伦理评估,使用 Beauchamp 和 Childress 的“生物医学伦理原则”(自主、仁慈、不伤害和正义)作为分析框架,以确定医疗 AI 中可解释性的必要性。结果:每个领域都强调了一组不同的核心考虑因素和价值观,这些因素与理解可解释性在临床实践中的作用有关。从技术角度来看,可解释性必须从如何实现和从发展角度来看有什么好处两个方面来考虑。从法律角度来看,我们将知情同意、医疗器械认证和批准以及责任确定为可解释性的核心接触点。医学和患者的观点都强调了考虑人类行为者和医疗 AI 之间相互作用的重要性。我们得出的结论是,在临床决策支持系统中忽略可解释性会对医学的核心伦理价值观构成威胁,并可能对个人和公共健康产生不利影响。结论:为了确保医疗 AI 兑现其承诺,需要让开发人员、医疗保健专业人员和立法者意识到医疗 AI 中不透明算法的挑战和局限性,并促进多学科合作。关键词:人工智能、机器学习、可解释性、可解释性、临床决策支持
现代医疗机构正在经历快速而根本的变化。医生,技术人员和其他医生的需求比以往任何时候都更高,并难以维持相同的护理水平 - 同时同时实施了新的临床和数据存储技术。医疗保健设施越来越复杂,那是在Covid-19迫使他们实施社会疏远和占用限制之前。
随着基于人工智能 (AI) 的产品和服务在各个行业中激增,一个最重要的问题浮出水面:这些系统应该包括人类还是应该自主运行?这个问题是我们现在认为理所当然的许多服务和产品的基础。例如,考虑使用谷歌地图。我们中的许多人现在都认为这种基于人工智能的服务是理所当然的,当它指引我们从一个地方到另一个地方时,我们几乎不用考虑它会带我们去哪里。这个工具背后没有人类向导或主持人;我们甚至不能像在银行那样打电话,要求找人谈谈走错路或被带到了目的地以外的地方。如果出了问题,没有人可以帮助我们,也没有人可以投诉。