智能辅导系统的经验教训
机构名称:
¥ 1.0

自最早的专家系统以来,提供解释一直是人工智能 (AI) 的研究课题。1 本文重点关注那些运行源自机器学习方法(尤其是“深度神经网络”)的 AI 程序,该研究工作被称为可解释 AI (XAI)。具体来说,我们的分析基于 DARPA 2017-2021 XAI 计划中的研究项目,该计划追求这一假设:“通过创建新的机器学习方法来生成更多可解释的模型并将其与解释技术相结合,XAI 旨在帮助用户理解、适当信任和有效管理新一代 AI 系统”(参考文献 2;另见参考文献 3)。这些知识可能有助于适当使用 AI 工具,例如使用户能够交叉检查和补充自动化操作以完成更广泛的活动。提供解释是帮助人们获得这种能力的一种方法。解释计算机程序等复杂系统的最佳方法是什么?我们能否通过促进自我解释来促进人们的理解?基于计算机的辅导系统应该采用什么样的教学方法?这些方法应该从教师与学生互动的研究中得出吗?自 20 世纪 70 年代以来,这些问题一直是推动智能辅导系统 (ITS) 领域 AI 研究的动力。4,5 我们使用 Sharp-les 等人的 MR Tutor 系统来说明 ITS 方法,6 该系统使用统计分析来解释和关联医学图像的特征。在 MR Tutor 中,“解释”被定义为一种教学活动,用于学习如何使用 AI 执行诊断任务

智能辅导系统的经验教训

智能辅导系统的经验教训PDF文件第1页

智能辅导系统的经验教训PDF文件第2页

智能辅导系统的经验教训PDF文件第3页

智能辅导系统的经验教训PDF文件第4页

智能辅导系统的经验教训PDF文件第5页