人工智能在高等教育中的最大风险不是作弊,而是对学习本身的侵蚀

Hanna Barakat 和剑桥多元化基金 / 数据实验室对话 / 获得 CC-BY 4.0 许可 作者:Nir Eisikovits,麻省大学波士顿分校和 Jacob Burley,麻省大学波士顿分校 关于高等教育中人工智能的公开辩论主要围绕一个熟悉的担忧:作弊。学生会使用聊天机器人来写论文吗?老师们能说一下吗?大学应该禁止这项技术吗? [...]

来源:ΑΙhub

Hanna Barakat 与剑桥多元化基金/数据实验室对话/CC-BY 4.0 许可

作者:Nir Eisikovits,麻省大学波士顿分校和 Jacob Burley,麻省大学波士顿分校

关于高等教育中人工智能的公开辩论很大程度上围绕着一个熟悉的担忧:作弊。学生会使用聊天机器人来写论文吗?老师们能说一下吗?大学应该禁止这项技术吗?拥抱它吗?

这些担忧是可以理解的。但过分关注作弊却忽略了已经发生的更大的转变,这一转变远远超出了学生的不当行为,甚至超出了课堂范围。

大学正在机构生活的许多领域采用人工智能。有些用途在很大程度上是不可见的,例如帮助分配资源、标记“有风险”的学生、优化课程安排或自动化日常管理决策的系统。其他用途更引人注目。学生使用人工智能工具进行总结和学习,教师使用它们来制定作业和教学大纲,研究人员使用它们来编写代码、浏览文献并将数小时的繁琐工作压缩为几分钟。

人们可能会使用人工智能来作弊或跳过工作任务。但人工智能在高等教育中的多种用途及其预示的变化引出了一个更深层次的问题:随着机器变得更有能力进行研究和学习,高等教育会发生什么?大学的目的是什么?

在过去的八年里,作为麻省大学波士顿分校应用伦理中心与伦理与新兴技术研究所联合研究项目的一部分,我们一直在研究人工智能普遍参与的道德影响。在最近的一份白皮书中,我们认为,随着人工智能系统变得更加自主,高等教育中使用人工智能的道德风险及其潜在后果也随之增加。

非自主人工智能

考虑三种人工智能系统及其各自对大学生活的影响:

混合人工智能

自主代理

令人不舒服的拐点