医学教育是一个复杂而艰巨的过程,要求学生在临床前和临床领域获得大量的知识和技能 [1]。近年来,人工智能 (AI) 已被提出作为提高医学教育成果的潜在解决方案。AI 在医学教育中的一种应用是使用智能辅导系统,该系统为个别学生提供个性化的反馈和指导 [2]。本研究的目的是探索 AI 辅导系统在学习医学临床前和临床领域(特别是在药理学领域)中的应用。智能辅导系统在医学教育中的整合具有多种优势 [3]。这些系统支持个性化辅导,系统可以评估学生的知识水平并确定需要进一步强化的领域 [4]。当学生参与建议的活动时,可以调整难度级别,并根据他们的优势和劣势提供指导。这些系统被集成到学习管理系统中,学习管理系统已经历了显著的增长。
学生可能需要与其他学习领域相关的支持,例如组织、启动和激励,这些支持超出了普通学生的需求。随着工作量和需求的增加,这种情况在学校的后期会变得更加明显和频繁。在某些情况下,可能需要课外协助来实施针对这些已确定需求的额外策略,这些策略超出了典型的家长支持范围。这种支持不属于导师的职责,应以相关的治疗建议为基础。例如,可能需要职业治疗师来支持与设置家庭工作站、安排家庭作业和作业时间表以及提示有关的学习需求。如果学生需要持续的积极支持来实施和管理这些额外策略,则辅助医疗助理可能是提供此服务的合适人选。
自最早的专家系统以来,提供解释一直是人工智能 (AI) 的研究课题。1 本文重点关注那些运行源自机器学习方法(尤其是“深度神经网络”)的 AI 程序,该研究工作被称为可解释 AI (XAI)。具体来说,我们的分析基于 DARPA 2017-2021 XAI 计划中的研究项目,该计划追求这一假设:“通过创建新的机器学习方法来生成更多可解释的模型并将其与解释技术相结合,XAI 旨在帮助用户理解、适当信任和有效管理新一代 AI 系统”(参考文献 2;另见参考文献 3)。这些知识可能有助于适当使用 AI 工具,例如使用户能够交叉检查和补充自动化操作以完成更广泛的活动。提供解释是帮助人们获得这种能力的一种方法。解释计算机程序等复杂系统的最佳方法是什么?我们能否通过促进自我解释来促进人们的理解?基于计算机的辅导系统应该采用什么样的教学方法?这些方法应该从教师与学生互动的研究中得出吗?自 20 世纪 70 年代以来,这些问题一直是推动智能辅导系统 (ITS) 领域 AI 研究的动力。4,5 我们使用 Sharp-les 等人的 MR Tutor 系统来说明 ITS 方法,6 该系统使用统计分析来解释和关联医学图像的特征。在 MR Tutor 中,“解释”被定义为一种教学活动,用于学习如何使用 AI 执行诊断任务