摘要。ChatGPT3 是一个聊天引擎,它实现了基于 AI 的聊天引擎的承诺:用户可以提出问题(提示),它会以合理的方式回答。ChatGPT 的编码相关技能尤其令人印象深刻:非正式测试表明,很难找到 ChatGPT3 不知道如何正确回答的简单问题。一些学生肯定已经在使用它来回答编程作业了。本文研究学生使用 ChatGPT3 回答编码作业是否安全(“安全”意味着如果他们使用它,他们不会因抄袭而被抓住)。主要结果是学生使用 ChatGPT3 通常不安全。我们通过使用抄袭检测工具 Codequiry 进行搜索并在 Google 中搜索抄袭代码(仅考虑第一页结果)来评估使用 ChatGPT3 生成的代码的安全性。在 38% 的情况下,Codequiry 会找到一段部分复制自 ChatGPT3 答案的代码。在 96% 的情况下,Google 搜索会找到一段与生成的代码非常相似的代码。总体而言,在 96% 的情况下,学生使用 ChatGPT3 并不安全。
WT.11-12.8 有效地使用高级搜索,从多个权威印刷和数字来源收集相关信息;根据具体任务、目的和受众评估每个来源的优势和局限性;有选择地将信息整合到文本中以保持思想的流动,避免抄袭和过度依赖任何一个来源,并遵循标准的引用格式。
学生应坚守学术诚信的价值观,包括公平、诚实、信任和责任。违背这些价值观的行为包括但不限于抄袭、访问未经授权的网站进行作业或测试、未经授权协作完成作业或考试,以及以课程政策或作业说明不允许的方式使用 ChatGPT 等人工智能工具。
学术诚信:所有学生必须遵守大学的学术诚信政策,该政策可在学生行为和冲突解决办公室 (OSCCR) 的网站上找到,网址为 http://www.northeastern.edu/osccr/academicintegrity/index.html。请特别注意有关剽窃的政策。您可能知道,剽窃涉及将任何其他人的言语或想法视为自己的。无论您从何处获得这些想法 - 来自书籍,网络,同学还是母亲。无论您是直接引用来源还是改写来源;如果您不是这些词语或想法的创作者,您必须清楚明确地说明它们的出处。如果您在准备任何作业时有任何困惑或疑虑,请咨询导师,以便一起完成。您还可以在 NU 图书馆网站 http://www.lib.neu.edu/online_research/help/avoiding_plagiarism/ 上查阅“避免剽窃”指南。如果出现学术诚信问题,我们的一位讲师将与您讨论;如果讨论未能解决问题,我们将把问题提交给 OSCCR。
学术诚信:所有学生必须遵守大学的学术诚信政策,该政策可在学生行为和冲突解决办公室 (OSCCR) 的网站上找到,网址为 http://www.northeastern.edu/osccr/academicintegrity/index.html。请特别注意有关剽窃的政策。您可能知道,剽窃涉及将任何其他人的言语或想法视为自己的。无论您从何处获得这些想法 - 来自书籍,网络,同学还是母亲。无论您是直接引用来源还是改写来源;如果您不是这些词语或想法的创作者,您必须清楚明确地说明它们的出处。如果您在准备任何作业时有任何困惑或疑虑,请咨询导师,以便一起完成。您还可以在 NU 图书馆网站 http://www.lib.neu.edu/online_research/help/avoiding_plagiarism/ 上查阅“避免剽窃”指南。如果出现学术诚信问题,我们的一位讲师将与您讨论;如果讨论未能解决问题,我们将把问题提交给 OSCCR。
窃/学术完整性:麦吉尔大学和医学与健康科学学院都重视学术完整性。因此,所有学生都必须了解麦吉尔大学学生行为和纪律守则的作弊,窃和其他学术界的含义和后果,以及《医学与健康科学学院》的行为守则McGill的医学和教职员工和教职员工对学术诚实。因此,根据《麦吉尔大学学生的行为守则》,学生和医学和健康科学的学科程序以及医学与健康科学的学科范围
• Proctorio(自动在线监考软件)使用生物特征数据通过学生的网络摄像头监控面部动作并根据“正常”行为进行分析,从而“检测”考试中的抄袭行为(Proctorio nd),• Turnitin(抄袭检测软件)使用大量互联网、学术和学生论文内容数据库来检查学生作品与其他来源的相似性,识别与学术诚信和抄袭相关的问题(West-Smith 2022),• Perusall(社交阅读工具)使用学生的阅读模式和评论来评估学生的进度,创建“学生困惑”和“学生活动报告”,并自动对学生的理解和进步进行评分(Perusall 2023),• 许多其他工具,如聊天机器人、预测性咨询警报和学习管理软件(Dekker et al. 2020; Bannan 2019; Brightspace Community nd)都依赖于类似的方法。虽然并非所有学习或数据分析软件都包含人工智能,但作为未来的发展,人工智能始终是可能的——任何大量的用户数据对于人工智能技术来说都是有利可图的。这些工具提供了 Zuboff (2020: 9) 所描述的监视资本主义的典型例子,即使用“人类经验作为转化为行为数据的免费原材料”,为机器学习算法提供信息,以创建既能预测又能塑造用户行为的产品。监视资本主义牺牲了自由意志和隐私以牟取利润,同时也加剧了社会不平等和歧视。许多学者已经证明,种族主义、性别歧视和其他偏见是机器学习架构的固有内容,当它们在整个社会中使用和采用时,会对用户造成极大伤害(Andrejevic 2013;Christian 2020;Benjamin 2019;Noble 2018;O'Neil 2017)。这些算法的专有性质加剧了这种情况,这意味着用户通常无法理解用于伤害他们的工具,更不用说有效地反驳分析了。
评审过程的挑战在于辨别项目的元素是学生创作的还是人工智能生成的。虽然人工智能检测工具不断发展,但没有工具可以 100% 有效地识别内容是由人工智能还是人类创作的。与剽窃不同,在剽窃中,评委可以找到学生未经引用而复制的来源,但无法完全确定学生是否不当使用了人工智能。
本论文中引用的其他人作品中的所有句子或段落均已明确注明作者、作品和页码。任何非本论文作者作品的插图均已获得原作者的明确许可,并已明确注明。我理解,不这样做就等同于剽窃,将被视为整个学位考试不及格的理由。
生成AI的使用正在迅速增长。生成的AI可用于多种目的,请参见https://www.gov.uk/government/publications/generative-arterative-arterative-arterative-ainteraligence-in-generative-in-generative-nererative-anererative-anterative-Arterative-Arteration-Arteragent-Arteraligence-Intelligence-ai-i-in---i-in--- in-in-ducucation。但是,生成的AI可以以道德和不道德的方式使用。在评估中,对生成AI的不道德使用可以被视为窃的一种形式,因此,如果建立的话,可以导致拒绝应用程序(AHCS,2023年,P10)。
