详细内容或原文请订阅后点击阅览
观点:制定人工智能规则时,是谁问学生的?
三年前,学校站在了一边。 ChatGPT 发布几周后,硬性规则几乎一夜之间就出现了。各个部门都禁止使用人工智能工具。老师们看着看似存在的威胁实时出现,他们的反应方式就像机构在压力下通常所做的那样:他们画了一条线,告诉每个人不要跨越[...]
来源:The 74将此类故事直接发送到您的收件箱。订阅 The 74 时事通讯
三年前,学校站在了一边。
ChatGPT 发布几周内,硬性规则几乎一夜之间就出现了。各个部门都禁止使用人工智能工具。老师们看着看似存在的威胁实时出现,他们的反应方式就像机构在压力下通常所做的那样:他们画了一条线,告诉每个人不要跨越它。
三年后,那条线仍然存在。在许多地方,没有人问过它是否应该如此,至少受其影响最严重的人们没有问过。
当我研究德克萨斯州奥斯汀高中的人工智能政策是如何制定的时,我发现我的管理人员在内部做出了决定。没有学生委员会,没有公开论坛,没有全校范围的调查。规则手册就这么简单地流传了下来。在K-12教育中,只有俄亥俄州和田纳西州要求学区制定并发布人工智能政策;当它们发布时,它们的制定通常没有适当考虑所有利益相关者,包括学生本身。
反驳学生是未成年人、机构需要一致的治理以及并非所有决定都可以提交委员会的观点是合理的。但人工智能政策并不是例行的课程调整。它规定了学生可以使用哪些工具来思考、起草、研究和交流——这些工具越来越多地影响着校外知识的生产和评估方式。错误地遵守这些规则会给学生带来后果。
相反,在许多机构中,首先建立了执行架构。如果有的话,谈话是稍后才进行的。
不一定要这样工作。在加利福尼亚州洛斯阿尔托斯,高中生所做的不仅仅是参加政策会议——他们设计和举办社区研讨会,促进六年级学生和管理人员之间的讨论,并建立一个人工智能聊天机器人来帮助其他学区起草政策。
您在工作中使用过这篇文章吗?
