摘要 目标 不同的利益相关者可能对医疗保健领域的人工智能 (AI) 应用持有不同的态度,如果 AI 开发人员未能考虑到这些态度,这可能会限制他们的接受度。我们着手确定临床医生、消费者、管理人员、研究人员、监管机构和行业对医疗保健领域 AI 应用的态度证据。方法 我们对标题或摘要包含“人工智能”或“AI”和“医疗”或“医疗保健”以及“态度”、“看法”、“意见”、“观点”、“期望”等术语的文章进行了探索性分析。我们使用滚雪球策略在 PubMed 和 Google Scholar 中搜索 2010 年 1 月 1 日至 2021 年 5 月 31 日发表的文章。我们选择了与用于支持医疗保健相关任务或决策的非机器人面向临床医生的 AI 应用相关的文章。结果 在 27 项研究中,人们对医疗保健领域 AI 应用的态度总体上是积极的,对于那些有 AI 直接经验的人来说更是如此,但前提是满足某些保障措施。与直接影响临床决策或可能影响临床医生与患者关系的 AI 应用相比,自动进行数据解释和合成的 AI 应用更受临床医生和消费者的青睐。隐私泄露和 AI 相关错误的个人责任令临床医生感到担忧,而失去临床医生的监督和无法完全参与决策令消费者感到担忧。临床医生和消费者都希望 AI 生成的建议值得信赖,而行业团体则强调 AI 的好处,并希望获得更多数据、资金和监管确定性。讨论 许多利益相关者群体对人工智能应用的某些期望是共同的,从中可以定义一组依赖关系。结论 利益相关者对人工智能的态度有所不同,但并非全部。那些开发和实施应用程序的人应该考虑弥合不同利益相关者之间态度分歧的政策和流程。