人工智能 (AI) 的出现彻底改变了各个领域,包括科学研究。从数据分析到预测模型,AI 以各种方式为研究领域做出了贡献。然而,对 AI 系统的依赖引入了易受攻击的漏洞。尽管 AI 有可能加速科学发现的速度并分析大量数据,但它与科学不端行为和数据操纵的担忧有关。
开展高质量且合乎道德的研究取决于参与研究过程的所有个人的正直、诚实和专业精神。研究组织各级员工招聘实践应反映这些品质的重要性。ICL 员工必须参考“《宪章》附录附件”中的“https://www.imperial.ac.uk/admin-services/secretariat/university-governance-and-key-documents/charters/”。其中详细说明了报告和调查潜在研究不端行为指控的程序。ICHT 员工还应参考提出关注政策和程序(举报)。就本 SOP 而言,科学不端行为的定义取自医学研究委员会的《良好研究实践:原则和指南》(2023 年 4 月)。医学研究委员会和英国研究委员会对研究不端行为的定义如下:
课程大纲中关于使用生成人工智能 (AI) 的声明示例(见参议院章程 54 和 55) 生成人工智能是一种通过识别大量训练数据中的模式来创建类似人类内容(包括文本、图像、视频和计算机代码)的技术,然后创建具有相似特征的原始材料。示例包括:可以生成文本的 ChatGPT、Google Gemini、Claude 和 Jenni,可以生成编码和编程的 Github Co-pilot,以及可以生成图像的 DALL-E 和 Midjourney。(Pasick,2023 年)参议院章程 54 和 55 要求教师在课程大纲中包含“有关在课程中使用生成人工智能 (AI) 的信息或限制”。不将信息包含在课程大纲中的默认情况是允许在课程中使用生成人工智能(参议院:2024 年 5 月 10 日)。教学大纲说明样本:[非详尽列表] 禁止使用示例 1:在本课程中,使用任何生成式 AI 系统(包括但不限于 ChatGPT、Claude、Jenni、Github Co-pilot、DaLL-E 和 Midjourney)均被视为可能带来不应有优势的未经授权的辅助工具,因此不得在提交的成绩作业创作中或作为本课程任何作业的一部分使用。在本课程的评分作业中使用生成式 AI 系统被视为学术不端行为,可能根据章程 31:学术诚信受到纪律处分。示例 2:在本课程中,生成式 AI 工具(例如 ChatGPT、Google Gemini、Claude、Jenni、Github Co-pilot、DaLL-E 和 Midjourney)被视为未经授权的辅助工具。在本课程的任何作业(例如写作过程、创作过程、图像创建过程)的任何阶段均不允许使用生成式 AI。以此方式使用将被视为学术不端行为,并可能根据章程 31:学术诚信受到纪律处分。示例 3:本课程不允许使用生成式 AI 工具(例如 ChatGPT、Google Gemini、Claude、Jenni、Github Co-pilot、DaLL-E 和 Midjourney 等);因此,在本课程中使用任何 AI 工具进行作业都将被视为违反大学的学生行为准则,因为该作业并不完全是你自己的,并可能根据章程 31:学术诚信受到纪律处分。示例 4:除非讲师明确说明,否则本课程的所有作业均严禁使用生成式人工智能工具。这包括 ChatGPT、Google Gemini、Claude、Jenni、Github Co-pilot、DaLL-E 和 Midjourney 以及其他人工智能工具。使用未经授权的辅助工具构成学术不端行为,可能受到《条例 31:学术诚信》的处罚。一些允许的用途示例 1:学生可以根据每次评估概述的指导方针在本课程中使用生成式人工智能,只要承认并引用了生成式人工智能的使用,并遵循课程大纲和/或作业说明中给出的引用说明即可。这包括 ChatGPT、Google Gemini、Claude、Jenni、Github Co-pilot、DaLL-E 和
许多教师对与人工智能相关的学术不端行为的潜在违规行为感到震惊,并对未来可能发生的事情感到担忧,因为人工智能越来越能够模仿人类的声音和决策。然而,执着于作弊可能会导致对抗环境,并给已经负担沉重的教师带来大量时间投入。我们并不声称拥有所有答案,但我们可以提供一些选择,因为我们都在努力寻找方法来帮助我们的学生重视学习过程、深入了解基础概念的重要性以及人工智能的新兴普及,这无疑会影响他们未来的职业生涯。我们知道学术不端行为并不新鲜。斯坦福大学的两位教育学者 Victor Lee 和 Denise Pope (2023) 指出,早在 ChatGPT 出现之前,美国 60-70% 的高中生报告称,他们在上个月至少参与过一次“作弊”行为。虽然超出了本白皮书的范围,但学生从事不端行为有更深层次的系统性原因。帮助学生考虑与 AI 相关的道德决策的起点可能是确保他们明白,了解老师的政策是他们的责任。我们的白皮书“与学生讨论 AI 的指南”可能对您有所帮助。德克萨斯理工大学对涉嫌学术不端行为的回应流程是什么?学生行为办公室制定了一份《教师学术诚信指南》,概述了该流程。第一步是审查事件并与学生会面以获得初步了解,并确定您是否希望提交报告并推进官方大学调查。下一步是填写一份表格,您将在其中提交所有支持文件。如果事件无法在早期阶段由教师和学生解决,最后一步是正式的学术诚信调查和听证程序。给教师的一些建议:
毫无疑问,人工智能 (AI) 已经进入了学术界。从对高等教育出版物的快速浏览来看,关于人工智能以及学生和教师使用人工智能的潜力的文章很多。除了潜力之外,还有令人担忧的原因。据了解,人工智能可用于完成作业、论文、项目和其他可能的学术应用。德克萨斯理工大学学生行为准则的当前版本已经过审查,以确定现有准则语言是否足以涵盖因使用人工智能而引发的任何学术不端行为。该准则涵盖了作弊、剽窃和串通等主题,而且该准则的学术不端行为部分似乎确实涵盖了在学术工作中未经授权使用人工智能。当然,如果教师允许使用人工智能,这种使用不会构成对准则的潜在违反。
在 AI 监考考试中,学生在考试期间受到监控以确保学术诚信,就像监考人员在校园考试中监控学生一样。网络摄像头记录考试过程,任何诚信问题都会被标记以供审查。在大多数情况下,考试过程中标记的问题与诚信无关,可以避免,例如说话或远离摄像头。上一次考试中,超过 70% 的标记事件与学术不端行为无关,而是 AI 识别出的可轻松预防的行为。为了避免考试中不必要的标记,以下是本次考试中 AI 监考考试中应避免的首要事项。