聚焦制定人工智能指导和政策的包容性流程

作者:Lilian Schofield 和 Joanne J. Zhang 简介 当 ChatGPT 的讨论在 2022 年开始在高等教育中获得动力时,教育工作者反应背后的“情绪”,例如排斥、孤立和对技术变革的恐惧,是……继续阅读 →

来源:SRHE | 高等教育研究学会

作者:Lilian Schofield 和 Joanne J. Zhang

作者:Lilian Schofield 和 Joanne J. Zhang

简介

简介

当有关 ChatGPT 的讨论在 2022 年在高等教育中开始获得动力时,教育工作者反应背后的“情绪”,例如排斥感、孤立感和对技术变革的恐惧,最初并没有处于最前沿。 即使是教育工作者对在教育中引入和使用人工智能的担忧,这是一种情绪反应,也没有得到太多关注。 Ng 等人 (2023) 强调了这种感觉,他们指出许多人工智能工具对教育工作者来说都是新事物,许多教育工作者可能会因为对技术缺乏了解或熟悉而感到不知所措。当时的大问题是关于禁止使用 ChatGPT 的讨论、道德和隐私问题、包容性问题以及对学术不端行为的担忧(Cotton 等人,2023 年;Malinka 等人,2023 年;Rasul 等人,2023 年;Zhou & Schofield,2023 年)。

Ng 等人(2023 等人 Cotton 等人,2023 等人 Malinka 等人,2023 等人 Rasul 等人,2023 等人 Zhou & Schofield,2023

随着高等教育机构开始在教育领域开发人工智能指导,重点似乎再次转向学生对人工智能的道德和负责任的使用,而很少关注教育者的指导。在这里,我们从包容性和教育者的“声音”的角度来反思伦敦玛丽女王大学商学院人工智能指导的发展过程。我们认为“包容性”是教育者在教育过程中的积极参与和贡献共同制定人工智能政策,听取学生和教职员工的多种意见。

共同制定包容性人工智能指导

共同制定包容性人工智能指导 罗素集团关于人工智能使用的原则
    探索和学习。讨论和告知。压力测试和验证。
  • 探索和学习。
  • 讨论和告知。
  • 压力测试和验证。
  • 实用建议

    实用建议 Arnot & Reay,2007 Southworth 等人,2023 等人

    结论

    结论 Lilian Schofield 博士 Lilian Schofield 博士