关于医疗保健领域人工智能的讨论引发了人们对治疗关系非人性化的担忧 (1)。依赖“大数据”来指导治疗决策可能会导致忽视无法简化为离散数据元素的经验和价值观。计算机生成的建议可能带有虚假权威,会凌驾于专家的判断之上。然而,对人工智能对临床实践造成破坏性影响的担忧可能更多地反映了营销炒作,而非近期的临床现实。当考虑大数据和机器学习在精神保健领域的实际用途时,人工智能这个词通常是一个误称。大数据和机器学习的一些医疗保健应用可能代表真正的人工智能:计算机算法处理机器生成的数据以自动提供诊断或推荐治疗。例如,美国食品和药物管理局最近批准了一种用于诊断糖尿病视网膜病变的自主人工智能系统 (2)。然而,所谓的人工智能在精神病学中的临床应用通常依赖于人类生成的数据来预测人类的经验或指导人类的行为。例如,作为研究人员,我们可能会使用临床记录来识别首次精神病发作风险较高的年轻人。或者我们可能会使用治疗前临床评估的数据来预测患者在接受特定抑郁症治疗后随后的改善情况。或者我们可能会使用来自人类患者和人类治疗师互动的数据来为自动化治疗计划选择有用的反应。这些例子中的每一个都涉及使用机器学习和大型记录数据库来开发预测模型或决策支持工具。然而,在每种情况下,输入数据和预测结果都反映了人类的经验。中间可能有复杂的数学,但人类是两端的重要参与者。因此,智能实际上不是人工智能。当我们使用临床数据来预测临床结果或指导临床决策时,机器学习依赖于人类过去的评估和决策的结果
主要关键词