学生应坚守学术诚信的价值观,包括公平、诚实、信任和责任。违背这些价值观的行为包括但不限于抄袭、访问未经授权的网站进行作业或测试、未经授权协作完成作业或考试,以及以课程政策或作业说明不允许的方式使用 ChatGPT 等人工智能工具。
人工智能与学术诚信 一些人对人工智能聊天机器人的兴起做出了回应,主张学校全面禁止使用这些工具,称作弊、抄袭和其他形式的学术不端行为是严重问题。事实上,ChatGPT 等人工智能应用程序的出现给教师带来了一系列新的挑战,因为 ChatGPT 生成的产品不是来自以前发表的作品的声明或报告,教师可以使用抄袭检测软件轻松找到这些作品。相反,该应用程序不断修改其输出以生成看似独特的作品。一项研究(Khalil & Err,2023)发现,流行的检测工具在识别 ChatGPT 生成的 50 篇论文样本中的抄袭方面基本上无效。AI 检测工具也可能产生误报,这意味着它们将人类编写的文本识别为 AI 生成的文本 (Dalalah & Dalalah, 2023)。Turnitin 等检测软件公司承诺改进其产品以获得更有效的结果(例如,ChatGPT 创作内容的成功率为 97%,Turnitin, 2023)。但是,即使有了这些改进,许多学生仍会发现进行简单调整的方法,例如在 AI 生成的文本中插入同义词,以逃避检测。认识到对学术诚信的威胁,美国许多学区已禁止使用这种 AI 工具 (Rose, 2023)。但是,当学生可以在自己的设备上使用该工具而老师不知情时,这有多有效?总的来说,教育界必须面对这样一个现实:使用现有工具识别所有 AI 生成的文本实例将是困难的,甚至是不可能的。因此,我们不应该继续争论是否允许这些产品,而应该开始考虑如何以合乎道德和教育的方式整合这些应用程序。否则,就等于忽视了“我们学校里的大象”(Volante、DeLuca 和 Klinger,2023b)。我们的观点是,人工智能可以帮助激发学生对书面作业的思考方式的长期创新(Volante、DeLuca 和 Klinger,2023a)。
• Proctorio(自动在线监考软件)使用生物特征数据通过学生的网络摄像头监控面部动作并根据“正常”行为进行分析,从而“检测”考试中的抄袭行为(Proctorio nd),• Turnitin(抄袭检测软件)使用大量互联网、学术和学生论文内容数据库来检查学生作品与其他来源的相似性,识别与学术诚信和抄袭相关的问题(West-Smith 2022),• Perusall(社交阅读工具)使用学生的阅读模式和评论来评估学生的进度,创建“学生困惑”和“学生活动报告”,并自动对学生的理解和进步进行评分(Perusall 2023),• 许多其他工具,如聊天机器人、预测性咨询警报和学习管理软件(Dekker et al. 2020; Bannan 2019; Brightspace Community nd)都依赖于类似的方法。虽然并非所有学习或数据分析软件都包含人工智能,但作为未来的发展,人工智能始终是可能的——任何大量的用户数据对于人工智能技术来说都是有利可图的。这些工具提供了 Zuboff (2020: 9) 所描述的监视资本主义的典型例子,即使用“人类经验作为转化为行为数据的免费原材料”,为机器学习算法提供信息,以创建既能预测又能塑造用户行为的产品。监视资本主义牺牲了自由意志和隐私以牟取利润,同时也加剧了社会不平等和歧视。许多学者已经证明,种族主义、性别歧视和其他偏见是机器学习架构的固有内容,当它们在整个社会中使用和采用时,会对用户造成极大伤害(Andrejevic 2013;Christian 2020;Benjamin 2019;Noble 2018;O'Neil 2017)。这些算法的专有性质加剧了这种情况,这意味着用户通常无法理解用于伤害他们的工具,更不用说有效地反驳分析了。
最后的想法和其他资源请记住,没有万无一失的方法可以防止抄袭。但是,您可以使用可用的工具尝试限制使用 GAI 来取代原创作品。作为讲师,您的人际交往技能仍然是您抵御不诚实的最佳防御手段,而教育您为什么诚信对于知识交流很重要是关键。随时可以通过联系 instructionscore@gwu.edu 获得 LAI 教学核心专业人员的帮助。有关这些建议和新兴聊天机器人领域的更多信息,请参阅:
● 如果学生在任何评分标准类别中得分为“发展中/不完整”,将提供关于学生如何提高分数的评论。 ● 在收到初始分数和评论后,学生可以再重新提交一次项目计划。 ● 在重新提交作业之前,学生总是非常欢迎与 SCRC 成员会面,讨论他们的分数和评论。 ● 如果学生被发现以任何方式抄袭其作品,他们将不会获得公民准备印章学分,并将失去重新提交作品的机会。
▪ 在线测试:需要电脑、网络摄像头和良好的互联网连接(512 kbps) ▪ 优势:某种程度上的“受控环境”,试图减少作弊和抄袭 ▪ 人工智能的作用:减少甚至消除在线考试中的作弊行为,标记可疑情况(例如,看不到脸、打电话、与他人交谈、可疑的眼球运动) ▪ “Mettl 的未来人工智能算法经过超过 280 万次监考评估的训练。它可以检测到多达 18 种动态离题,准确率超过 95%。” Mercer
通过为高价值产品提供通信功能和嵌入式软件,制造商可以实现差异化并发展业务。例如,制造商可以让客户通过标准 Web 界面配置满足其特定需求的产品,并在产品生命周期内监控操作参数。或者,制造商可以提供基于软件的服务和互联服务体验 (CSX),以优化其智能产品的正常运行时间和性能。因此,数字化产品可以帮助制造商改善客户体验、巩固其在市场中的地位并防止抄袭。
人工智能 (AI) 程序(例如生成式 ChatGPT)可以成为有趣且有用的写作和研究工具。语法检查器和引文生成器就是有用的 AI 应用程序的示例。然而,在学术环境中,很难知道写作和研究工具何时会越界成为不道德的使用和抄袭。如果学生使用 AI 工具来生成课堂作业而不是原创想法、分析和研究,那么就违背了学习的目的,即独立与课程内容互动。
本叙述性评论探讨了在学术写作中使用人工智能 (AI) 的风险和道德问题。随着大型语言模型 (LLM) 和聊天机器人等人工智能技术越来越多地融入研究,关于它们对学术工作的完整性、准确性和道德标准的影响的问题也随之出现。本评论解决了抄袭、知识产权、准确性、可靠性、偏见及其对批判性思维和学习的影响等挑战。此外,它还探讨了人工智能生成内容的道德影响,并强调作者有责任确保其作品的透明度、准确性和适当的归属。该评论强调学术写作需要严格的标准,特别是在引用和承认研究过程中使用的人工智能工具方面。它强调了抄袭和侵犯知识产权的风险,声称人工智能生成的内容不应被视为作者或被引用。该评论还研究了人工智能对批判性思维和学术技能的潜在影响,表明过度依赖人工智能工具可能会阻碍智力发展。此外,它还确定了当前法律和机构政策在研究中使用人工智能方面的差距,并提倡建立更强大的框架来指导合乎道德的人工智能采用。最后,该评论提出了缓解策略,以最大限度地降低这些风险并确保负责任地使用人工智能,同时还提出了未来的研究方向以应对新出现的挑战。
武装部队学院拥有学术自由,并尊重高等教育法明确规定的法律义务以及对公共机构强制执行的所有其他法律行为。《军事杂志》中表达的观点和意见仅代表作者个人观点,并不反映国防部、俄罗斯联邦国防军总参谋部和武装部队学院的官方立场。文章作者不会因自由表达个人态度和立场而受到惩罚,即使其内容与国防机构的官方立场不符。同时,作者对歪曲事实以及未经引用抄袭其他作者的创作和思想承担责任。