详细内容或原文请订阅后点击阅览
学生在与 20 世纪 60 年代的治疗师机器人聊天后学到了什么
当中学生与 20 世纪 60 年代的聊天机器人 ELIZA 聊天时,他们发现了人工智能的真正工作原理(以及不工作原理)。一路上,他们学会了计算……
来源:EdSurge一名学生告诉她,聊天机器人正在“操纵煤气灯”。另一名学生认为聊天机器人不是一个很好的治疗师,不能帮助解决他们的任何问题。
越来越多的各个年龄段的人正在用聊天机器人代替有执照的心理健康专业人员,但这并不是这些学生所做的。他们正在谈论 ELIZA——一个基本的治疗师聊天机器人,由 Joseph Weizenbaum 于 20 世纪 60 年代创建,它将用户的陈述反映为问题。
2024 年秋季,EdSurge 的研究人员深入教室,了解教师如何应对人工智能工业革命。一位纽约市一所私立学校的中学教育技术讲师分享了她设计的关于生成式人工智能的教案。她的目标是帮助学生了解聊天机器人的真正工作原理,以便他们能够编写自己的聊天机器人。
与学生使用过的人工智能聊天机器人相比,ELIZA 聊天机器人的局限性非常大,以至于学生们几乎立即感到沮丧。当谈话陷入循环时,伊丽莎不断提示他们“告诉我更多”。当学生试图侮辱它时,机器人平静地转移话题:“我们正在讨论你,而不是我。”
老师指出,她的学生认为“作为‘治疗师’机器人,ELIZA 根本没有让他们感觉良好,也没有帮助他们解决任何问题。”另一个尝试更准确地诊断问题:ELIZA 听起来像人类,但它显然不明白他们在说什么。
这种挫败感是教训的一部分。教会她的学生批判性地研究聊天机器人的工作原理非常重要。这位老师为学生创建了一个沙箱,让他们参与学习科学家所说的富有成效的斗争。
在这份研究报告中,我将深入探讨本课程背后的学习科学,探索它如何不仅帮助学生更多地了解人工智能的不那么神奇的机制,而且还包括情商练习。
