问责时刻是人工智能为学习服务的原因

学生们对人工智能并不感到困惑——他们在一个消除了学习动力的系统中做出了理性的选择。 Jim Dickinson 和 Mack Marshall 预览了人工智能时代学习的新研究结果

来源:Wonkhe | 高等教育政策、人物与政治

二月的同一天早上,两名学生在同一所大学的同一个焦点小组中。

一个正在学习数学,另一个正在学习计算。两人都在评估工作中使用了人工智能。

区别在于一个单一的结构特征——未来是否存在他们需要证明他们真正理解他们所创造的东西的时刻。

在我的内心深处,我知道几个月后我将不得不参加考试并接受类似的测试,”这位数学学生说道。“所以我确实需要实际学习并完成自己的作业,而不是仅仅让人工智能帮我完成作业。”

当被问及是否同样适用时,计算机专业的学生(其模块完全由课程作业评估)简单地回答:“不,不,不。”

她并不是在描述道德上的失败。她正在描述对一个系统的战略反应,该系统取消了她的理解力受到考验的唯一时刻。

她使用人工智能在“自动驾驶”(她的原话)上安排了她的整个作业,并承认自己做得不好。人工智能甚至没有取得好成绩。但它也没有产生任何理解。

这次交流抓住了我们认为该行业关于人工智能的争论在很大程度上遗漏的一些东西——这是我们即将发布的新研究的核心发现之一。

已知的未知

对于《学生的秘密生活 2026》,我们着手超越每个人都已知的范围。

我们已经知道绝大多数英国学生使用人工智能,大多数将其用于评估作业,并且 ChatGPT 占主导地位。

我们知道学生主要是为了节省时间和提高质量,他们担心作弊指控和幻觉,而且大多数机构现在都有政策。

我们想要回答的问题位于采用统计数据下方。学生是否觉得他们真正学到了自己的成果?当他们决定如何在特定工作中使用人工智能时,他们会权衡什么?他们认为他们的评估是否测试了理解力——如果不是,什么会测试?

注意间隙

乌龙球