这些进步发生在卫生系统面临诸多挑战的时候。例如,肥胖和心理健康问题日益严重,尤其是在儿童和年轻人中。我们需要做更多工作来管理健康不平等,消除不必要的差异,满足学习障碍或自闭症患者的健康需求。老年人口的虚弱需要谨慎管理,以防止不必要的住院或治疗。心血管疾病、呼吸系统疾病和癌症仍然是导致
文章标题:人工智能(AI)在医疗保健中的应用:综述 作者:Mohammed Yousef Shaheen[1] 所属机构:沙特阿拉伯[1] Orcid ids:0000-0002-2993-2632[1] 联系电子邮件:yiroyo1235@tmednews.com 许可信息:本作品已根据知识共享署名许可 http://creativecommons.org/licenses/by/4.0/ 以开放获取的方式发表,允许在任何媒体中不受限制地使用、分发和复制,只要正确引用原始作品即可。使用条款和出版政策可在 https://www.scienceopen.com/ 上找到。预印本声明:本文为预印本,尚未经过同行评审,正在考虑并提交给 ScienceOpen Preprints 进行开放同行评审。DOI:10.14293/S2199-1006.1.SOR-.PPVRY8K.v1 预印本首次在线发布:2021 年 9 月 25 日
我们将提供空间供您展示您的产品。如有任何疑问或想安排会议,请随时通过 pjbinu@cdac.in 与我们联系,Binu PJ,组织秘书,科学家 E/联合主任,CDAC Trivandrum 健康技术组,电话:9496236198。
•Barodiya,V。K.(2022)。使用机器学习对疾病诊断的研究。本文在医学诊断任务中评估了各种ML模型的性能,包括SVM和深度学习。该研究还探讨了数据预处理技术以提高模型的准确性。与项目的相关性:研究结果与该项目的重点放在利用SVM和强大的预处理技术上,以检测具有高精度的复杂疾病。•Luo,X.,Wang,Y。,&Lee,L。(2021)。基于机器学习的诊断系统的开发和五项评估。本文提供了一个全面的框架,用于使用精度,回忆和F1得分等指标评估机器学习模型。与该项目的相关性:研究中讨论的评估指标直接适用于评估提出的系统的性能,从而确保诊断预测的准确性和可靠性。
“人工智能”(AI)这一术语广泛应用于人类活动的各个领域。但目前对人工智能尚无一个普遍接受的定义。对于一些人来说,人工智能是任何数据处理技术;对于另一些人而言,它是一些能够超越人类智能的人工生命形式。 AI的定义之一是自主性和适应性,即。能够在复杂条件下无需人工不断指导地执行任务,并且能够根据自身经验提高工作效率。也就是说,人工智能应该能够在复杂的环境中执行分配给它的任务,研究它及其行为并尽量减少不利结果的可能性。今天我们可以说,人工智能包括具有一组特定算法的软件工具,这些算法能够像人类一样解决智力问题。人工智能新技术、新成果发展速度飞快,这些技术的应用问题不再是人工智能是否会产生影响,而是“谁、如何、在何地、何时感受到这种影响,是积极的还是消极的”。人工智能在医疗健康领域的发展引发了“人工智能即将取代医生”这一话题的热烈讨论。目前,智能机器完全取代临床医生的可能性不大,但各种人工智能方法正越来越多地被用于支持医疗决策[1,2,3,4]
摘要背景:在人工智能 (AI) 应用于医疗保健领域时,可解释性是最受争议的话题之一。尽管人工智能驱动的系统已被证明在某些分析任务中表现优于人类,但缺乏可解释性仍然引发批评。然而,可解释性不是一个纯粹的技术问题,相反,它引发了一系列需要彻底探索的医学、法律、伦理和社会问题。本文对可解释性在医学人工智能中的作用进行了全面评估,并对可解释性对于将人工智能驱动的工具应用于临床实践的意义进行了伦理评估。方法:以基于人工智能的临床决策支持系统为例,我们采用多学科方法从技术、法律、医学和患者的角度分析了可解释性对医学人工智能的相关性。基于这一概念分析的结果,我们随后进行了伦理评估,使用 Beauchamp 和 Childress 的“生物医学伦理原则”(自主、仁慈、不伤害和正义)作为分析框架,以确定医疗 AI 中可解释性的必要性。结果:每个领域都强调了一组不同的核心考虑因素和价值观,这些因素与理解可解释性在临床实践中的作用有关。从技术角度来看,可解释性必须从如何实现和从发展角度来看有什么好处两个方面来考虑。从法律角度来看,我们将知情同意、医疗器械认证和批准以及责任确定为可解释性的核心接触点。医学和患者的观点都强调了考虑人类行为者和医疗 AI 之间相互作用的重要性。我们得出的结论是,在临床决策支持系统中忽略可解释性会对医学的核心伦理价值观构成威胁,并可能对个人和公共健康产生不利影响。结论:为了确保医疗 AI 兑现其承诺,需要让开发人员、医疗保健专业人员和立法者意识到医疗 AI 中不透明算法的挑战和局限性,并促进多学科合作。关键词:人工智能、机器学习、可解释性、可解释性、临床决策支持
摘要:本文通过展示正在进行的项目和该领域的最新发展,概述了人工智能在医疗保健领域的潜在和实际应用,包括将人工智能融入生物技术。通过分析因偏见和遵守数据保护制度的复杂性而引起的问题,提请关注可能的风险和法律挑战。重点仍然是欧盟。本文最后总结了与 covid-19 大流行的相关性以及人工智能为解决危机做出贡献的潜力。 关键词:人工智能;医疗保健;生物技术;个性化治疗;covid-19 摘要:1. 简介 – 1.1 什么是人工智能以及它是如何工作的?– 2. 卫生和科技部门合作的示范项目 – 2.1. InnerEye Microsoft 项目 – 2.2. DeepMind 和 Google Health – 2.3 使用应用程序追踪帕金森病 – 3. 风险和挑战 – 3.1. 算法偏见 –法律问题 – 3.2.1. 数据保护 – 3.2.2. 责任 – 3.3. 其他挑战 – 4. 监管尝试:欧盟 – 5. 结论:与 Covid-19 的相关性 1. 简介
在撰写本文时,英国脱欧后,英国医疗器械监管正处于过渡阶段。它仍受《2002 年医疗器械法规》(经修订)的约束,该法规将相关欧盟指令转化为英国法律。新的英国监管制度最初是通过《2021 年药品和医疗器械法案》引入的,目的是利用这些权力在 2023 年 7 月 1 日制定次级立法。17 然而,英国政府推迟了这一期限,并延长了之前欧盟标准的适用时间。根据目前的做法,医疗器械根据 CE 标志(欧盟监管标志)被接受进入英国市场,直到 2028 年或 2030 年,具体取决于设备的具体类型。18
医疗保健系统在确保人们的健康方面发挥着至关重要的作用。建立准确的诊断是这一过程的重要组成部分。由于消息来源强调误诊和漏诊是一个常见问题,因此必须寻求解决方案。诊断错误在急诊室很常见,急诊室被认为是一个压力很大的工作环境。当今的行业被迫应对快速变化的技术进步,这些进步导致系统、产品和服务的重塑。人工智能 (AI) 就是这样一种技术,它可以作为诊断问题的解决方案,但伴随着技术、道德和法律挑战。因此,本论文旨在研究人工智能如何影响诊断的准确性,以及它在医疗保健中的整合与技术、道德和法律方面的关系。本论文从文献综述开始,文献综述作为理论基础,并允许形成概念框架。概念框架用于选择受访者,结果对教授、研究人员、医生和政治家进行了 12 次采访。此外,还进行了一项调查,以获取公众对此事的看法。研究结果表明,人工智能已经足够成熟,能够做出比医生更准确的诊断,并以行政任务的形式减轻医务人员的负担。一个障碍是可用的数据不完整,因为法律阻碍了患者数据的共享。此外,人工智能算法必须适合所有社会少数群体,并且不能表现出种族歧视。欧洲人工智能联盟于 2018 年成立,旨在控制该技术。可以在国家和地区层面制定类似的举措,以保持对其正确使用的某种形式的控制。
表1:撒哈拉以南非洲医疗保健领域中使用的常见技术表2:远程医疗和远程患者监测计划的非避免列表表3:非详尽的医疗保健操作和管理计划列表