在撰写本文时,英国脱欧后,英国医疗器械监管正处于过渡阶段。它仍受《2002 年医疗器械法规》(经修订)的约束,该法规将相关欧盟指令转化为英国法律。新的英国监管制度最初是通过《2021 年药品和医疗器械法案》引入的,目的是利用这些权力在 2023 年 7 月 1 日制定次级立法。17 然而,英国政府推迟了这一期限,并延长了之前欧盟标准的适用时间。根据目前的做法,医疗器械根据 CE 标志(欧盟监管标志)被接受进入英国市场,直到 2028 年或 2030 年,具体取决于设备的具体类型。18
2024 年 6 月 8 日 — 第一批聊天机器人(最著名的是 Eliza,由 Joseph Weizenbaum 于 1966 年发明)能够尝试图灵测试。基本的模式匹配技术...
人工智能 (AI) 及其子领域机器学习 (ML) 的进步几乎体现在生活的每个领域,包括前沿的健康研究。 1,2 然而,研究论文中描述的健康 AI/ML 系统中只有很小一部分进入临床实践。为了解决这个问题,儿童医院 (SickKids) 和 Vector 人工智能研究所 (Vector) 于 2019 年 10 月 30 日组织了 Vector-SickKids 健康 AI 部署研讨会,166 名临床医生、计算机科学家、政策制定者和医疗保健管理人员参加了会议。目的是展示 AI 从研究实验室走向临床的真实案例。演讲者来自加拿大和美国的各种机构,包括圣迈克尔医院、大学健康网络、滑铁卢大学、安大略公共卫生学院、安大略理工大学、密歇根大学、北加州凯撒医疗机构、约翰霍普金斯大学、宾夕法尼亚大学和杜克大学。每个项目所经历的成功和挑战为新兴的健康 AI 领域提供了宝贵的见解。要求每位发言者准备一个结构化的演讲,涉及以下主题:
摘要:本文通过展示正在进行的项目和该领域的最新发展,概述了人工智能在医疗保健领域的潜在和实际应用,包括将人工智能融入生物技术。通过分析因偏见和遵守数据保护制度的复杂性而引起的问题,提请关注可能的风险和法律挑战。重点仍然是欧盟。本文最后总结了与 covid-19 大流行的相关性以及人工智能为解决危机做出贡献的潜力。 关键词:人工智能;医疗保健;生物技术;个性化治疗;covid-19 摘要:1. 简介 – 1.1 什么是人工智能以及它是如何工作的?– 2. 卫生和科技部门合作的示范项目 – 2.1. InnerEye Microsoft 项目 – 2.2. DeepMind 和 Google Health – 2.3 使用应用程序追踪帕金森病 – 3. 风险和挑战 – 3.1. 算法偏见 –法律问题 – 3.2.1. 数据保护 – 3.2.2. 责任 – 3.3. 其他挑战 – 4. 监管尝试:欧盟 – 5. 结论:与 Covid-19 的相关性 1. 简介
生活的各个领域的数字化,无论是在工作,在家庭环境中,在个人或公共交通工具中,都在稳步发展。在2018年已经超过了40亿人口的限额。使用手机,目前有76亿人口,目前有76亿人口。超过30亿人使用社交媒体,并在十分之九的情况下通过智能手机这样做(请参阅[GDR18])。这一发展在医疗保健领域仍在继续。从“自我追踪”的趋势开始,但也从有效利用收集的医疗数据的需求增加。尤其是在医疗保健领域,无论您当前的位置和时间如何,都可以访问自己的医疗数据。在这种情况下,后端系统将敏感和个人数据存储从脉冲频率,睡眠节奏记录到药物计划和医疗处方。后端系统将用户与多个服务联系起来,因此充当通信集线器。被妥协的应用程序可以无意间披露用户的整个数字寿命,这可能会导致高财务损失。遵守适当的安全标准,尤其是在后端系统领域,可以降低风险,甚至可能阻止这种风险。已经在开发阶段,制造商应非常负责任地计划后端系统如何处理,存储和保护个人,在这种情况下,医疗和其他敏感数据。
• ML 的一个子集 • 通常利用人工神经网络 (ANN) 架构 • 结构化和非结构化数据(图像、文本、信号等) • 需要大量的训练数据和计算能力
人工智能和机器学习 (AI/ML) 算法在医疗保健领域的发展日渐成熟,用于诊断和治疗各种医疗状况 ( 1 )。然而,尽管此类系统技术实力雄厚,但它们的采用却一直充满挑战,它们是否能真正改善医疗保健以及在多大程度上改善医疗保健仍有待观察。一个主要原因是,基于 AI/ML 的医疗设备的有效性在很大程度上取决于其用户的行为特征,例如,用户往往容易受到有据可查的偏见或算法厌恶的影响 ( 2 )。许多利益相关者越来越多地将预测算法所谓的黑箱性质视为用户持怀疑态度、缺乏信任和接受缓慢的核心原因 ( 3, 4 )。因此,立法者一直在朝着要求提供黑箱算法决策解释的方向发展 (5) 。事实上,学术界、政府和民间社会团体几乎一致支持可解释的 AI/ML。许多人被这种方法吸引,因为它既能利用不可解释的人工智能/机器学习(如深度学习或神经网络)的准确性优势,又能支持透明度、信任和采用。我们认为,这种共识至少在应用于医疗保健领域时,既夸大了要求黑盒算法可解释的好处,又低估了其弊端。
摘要背景:在人工智能 (AI) 应用于医疗保健领域时,可解释性是最受争议的话题之一。尽管人工智能驱动的系统已被证明在某些分析任务中表现优于人类,但缺乏可解释性仍然引发批评。然而,可解释性不是一个纯粹的技术问题,相反,它引发了一系列需要彻底探索的医学、法律、伦理和社会问题。本文对可解释性在医学人工智能中的作用进行了全面评估,并对可解释性对于将人工智能驱动的工具应用于临床实践的意义进行了伦理评估。方法:以基于人工智能的临床决策支持系统为例,我们采用多学科方法从技术、法律、医学和患者的角度分析了可解释性对医学人工智能的相关性。基于这一概念分析的结果,我们随后进行了伦理评估,使用 Beauchamp 和 Childress 的“生物医学伦理原则”(自主、仁慈、不伤害和正义)作为分析框架,以确定医疗 AI 中可解释性的必要性。结果:每个领域都强调了一组不同的核心考虑因素和价值观,这些因素与理解可解释性在临床实践中的作用有关。从技术角度来看,可解释性必须从如何实现和从发展角度来看有什么好处两个方面来考虑。从法律角度来看,我们将知情同意、医疗器械认证和批准以及责任确定为可解释性的核心接触点。医学和患者的观点都强调了考虑人类行为者和医疗 AI 之间相互作用的重要性。我们得出的结论是,在临床决策支持系统中忽略可解释性会对医学的核心伦理价值观构成威胁,并可能对个人和公共健康产生不利影响。结论:为了确保医疗 AI 兑现其承诺,需要让开发人员、医疗保健专业人员和立法者意识到医疗 AI 中不透明算法的挑战和局限性,并促进多学科合作。关键词:人工智能、机器学习、可解释性、可解释性、临床决策支持
医疗保健系统在确保人们的健康方面发挥着至关重要的作用。建立准确的诊断是这一过程的重要组成部分。由于消息来源强调误诊和漏诊是一个常见问题,因此必须寻求解决方案。诊断错误在急诊室很常见,急诊室被认为是一个压力很大的工作环境。当今的行业被迫应对快速变化的技术进步,这些进步导致系统、产品和服务的重塑。人工智能 (AI) 就是这样一种技术,它可以作为诊断问题的解决方案,但伴随着技术、道德和法律挑战。因此,本论文旨在研究人工智能如何影响诊断的准确性,以及它在医疗保健中的整合与技术、道德和法律方面的关系。本论文从文献综述开始,文献综述作为理论基础,并允许形成概念框架。概念框架用于选择受访者,结果对教授、研究人员、医生和政治家进行了 12 次采访。此外,还进行了一项调查,以获取公众对此事的看法。研究结果表明,人工智能已经足够成熟,能够做出比医生更准确的诊断,并以行政任务的形式减轻医务人员的负担。一个障碍是可用的数据不完整,因为法律阻碍了患者数据的共享。此外,人工智能算法必须适合所有社会少数群体,并且不能表现出种族歧视。欧洲人工智能联盟于 2018 年成立,旨在控制该技术。可以在国家和地区层面制定类似的举措,以保持对其正确使用的某种形式的控制。