人工智能(AI)的整合及其在医学中的自主学习过程(或机器学习)彻底改变了全球健康状况,提供了更快,更准确的诊断,对医疗的个性化以及对临床信息的有效管理。但是,这种转变并非没有道德挑战,这需要全面而负责的方法。在许多领域中,AI和医学相交,例如健康教育,患者界面界面,数据管理,诊断,干预和决策过程。对于其中一些领域,有一些准则可以调节它们。AI在医学上有许多应用,包括医学成像分析,诊断,患者预后的预测分析,药物发现和发育,虚拟健康助理和远程患者监测。它也用于机器人手术,临床决策支持系统,AI驱动的聊天机器人,用于分类,管理工作流动自动化和治疗建议。尽管有许多应用,但与文献中尤其是在医学中鉴定出的AI有关的一些问题。这些问题是数据隐私和安全性,偏见和歧视,缺乏透明度(黑匣子问题),与现有系统的集成,成本和可及性差异,AI过度自信的风险,技术限制,对AI错误的问责制,算法可解释性,数据标准化问题,失业,失业,挑战以及临床验证。已经确定的各种问题,最担心的是数据偏见,黑匣子现象,有关数据隐私的问题,决策的责任,人类的安全问题以及技术失业。仍然存在与AI自主学习算法的使用有关的几个道德问题,即认知,规范性和全面的道德问题(总体上)。解决所有这些问题对于确保在医疗保健中使用AI在道德和负责任的情况下实施,从而为人口提供福利而不会损害基本价值。医疗保健提供者与行业之间正在进行的对话,建立道德准则和法规,不仅考虑当前的道德困境,而且未来的观点也是将AI应用于医学实践的基本要点。本综述的目的是讨论主要用于数据管理,诊断,干预和决策过程中的AI算法的道德问题。
主要关键词