引领人类教育

Mark Peace 认为,我们对人工智能对标准的威胁的焦虑可能会让我们忽视在知识工作中重申人性价值的更深层次需求

来源:Wonkhe | 高等教育政策、人物与政治

我在初级教师教育工作中积累了学术知识。

那段时间我花了很多时间坐在小学教室后面的一张很小的椅子上,看着熟悉的模式上演。受训者会把全班同学带进来,让他们坐在地毯上,然后开始让每个人“准备好”学习。双腿交叉。手还在。眼睛看着我。声音关闭。只有当秩序的表现符合他们脑海中的画面时,他们才会让自己开始上课。

十分钟后,每个人都痛苦不堪。孩子们很烦躁(我想,如果你七岁,并被要求在早上九点坐在冰冷的地板上,这很公平)。受训者很害怕他们对房间的控制力不断下滑(当你 19 岁并被要求把一个房间里有 30 个 7 岁的孩子围起来时,这也很公平)。接下来精心策划的活动的时间被侵蚀了,房间里变得充满了忧虑和对立。

当我们后来拆开它的包装时,我的问题总是一样的:实际上,谁妨碍了学习?当我审视该行业对生成式人工智能的反应时,我一直在思考这个问题。

在错误的机器上拧紧螺丝

教育有逐渐转向警务的趋势。特定类型的订单的执行成为事情,并了解随后可能发生的事情。这种反射体现在从学前班到研究生的各个层面,以及从课堂惯例到机构政策的各个层面。生成式人工智能确实引发了这种冲动,并且在我们最存在的警务设备:评估中感受最为强烈。

第三个响应是一种元解决方案。我们同意学生会使用人工智能,但请他们告诉我们如何使用。我们在提交人工智能使用声明时添加了一个框,附上提示附录,并使透明度成为一项重要美德。

毕业机械化

孤独学生的标准、价值观和神话

超越认知本身