确定了 AI 文本生成工具的几个潜在道德问题,包括制造虚假新闻和错误信息的可能性。你可能想知道这是怎么发生的?人类在促进 AI 的发展和进化方面发挥着关键作用。AI 系统的准确性和性能在很大程度上取决于用于训练它们的数据的质量,而这些数据也是由人类选择和策划的。此外,ChatGPT 开源平台被全球数百万人使用,每次有人与 AI 系统互动时,他们都会塑造其使用方式并因此发展技术。当然,这意味着这些技术有可能被用于恶意目的,并且 AI 生成的文本有可能延续和放大社会中现有的偏见和刻板印象。
对抄袭或使用人工智能等学术不端行为做出最终决定,并使用补充方法,例如:采访相关学习者,要求学习者提供强制性日志或声明,详细说明他们满足评估要求的过程以及他们对提交内容的理解(等如手册中所述)。建议学院/中心的多名代表参与此过程和后续决定。任何不利于学习者的决定都应一致通过。
IDCC25 作者和审稿人使用生成式 AI 工具的指南 本指南基于:Lin, Z. (2024)。面向学术出版的 AI 政策框架,认知科学趋势,28(2),85-88。检索自 https://doi.org/10.1016/j.tics.2023.12.002 定义 生成式 AI 是一种人工智能技术,可以生成各种类型的内容,包括文本、图像、音频和合成数据。示例包括但不限于 ChatGPT、NovelAI、Gemini、Jasper AI、Rytr AI、DALL-E 等。出版道德 | 爱思唯尔政策。(nd)。爱思唯尔。 2024 年 5 月 9 日检索自 https://www.elsevier.com/about/policies-and-standards/publishing-ethics 作者指南 如果使用生成式人工智能开发投稿或投稿的任何部分,则必须描述其用途和目的。作者应准备好提供有关其投稿中所用工具和生成内容的提示的信息。作者有责任对人工智能生成的内容进行适当审查,以避免不准确和抄袭。使用生成式人工智能创建内容并不意味着相关工具的作者身份。 为本指南提供指导的出版商政策:出版伦理最佳实践指南 | Wiley。(nd)。2024 年 5 月 9 日检索自 https://authorservices.wiley.com/ethics-guidelines/index.html#22 ChatGPT 和生成式人工智能。(2023 年 1 月 27 日)。 SAGE Publications Inc. https://us.sagepub.com/en-us/nam/chatgpt-and-generative-ai 审稿人指南 审稿人不得将稿件或稿件的任何部分上传到生成式 AI 工具中,即使是为了改善其审稿的语言和可读性。这是基于对稿件中个人数据和/或专有信息的机密性的尊重,以及通过防止它们成为训练数据集的一部分来尊重知识产权。此外,审稿过程是一项人类活动
4. 学生违反此政策将被视为学术不端行为,因此违反了《学生行为准则》。(a) 就针对提交的作业(用于评分或非评分课程要求)的抄袭规则而言,GAI 生成的文本将被视为人工编写。未经授权使用 GAI 平台生成课堂作业、考试或任何其他书面材料的答案(读者通常会认为这些答案是由人工编写的,而不是由 GAI 程序编写的),根据《学生行为准则》第 201(b) 条,这属于抄袭。抄袭违反了《学生行为准则》。(b) 如果教职员工允许使用 GAI,则忽略、无视或超出教职员工的限制、规范或其他指示的范围将违反《学生行为准则》。
高中生对人工智能聊天机器人在英语学习中使用的看法:好处、顾虑和道德考虑 Ji Eun Lee 和 Unkyoung Maeng Lee, JE, & Maeng, U. (2023)。高中生对人工智能聊天机器人在英语学习中使用的看法:好处、顾虑和道德考虑。泛太平洋应用语言学协会杂志,27 (2),53–72。本研究探讨了高中生对在英语学习中使用人工智能聊天机器人的看法。具体来说,它旨在衡量聊天机器人使用的广度,并辨别与其使用相关的潜在挑战的看法。来自一所高中的 30 名学生参加了调查。数据分析涉及频率、平均值和独立样本 t 检验。研究结果如下。首先,学生高度认可聊天机器人的重要性和价值,并对其可用性给予了积极评价。然而,他们之前使用聊天机器人的经验并没有影响这种看法。第二,学生认为在英语学习中使用聊天机器人非常有益。特别是,那些有聊天机器人使用经验的人比没有经验的人有更积极的看法。第三,学生相对意识到使用聊天机器人的潜在道德问题。无论他们是否有使用聊天机器人的经验,他们都特别担心抄袭和版权问题以及潜在的个人信息泄露。他们还意识到了潜在的教育问题,担心过度依赖聊天机器人可能会阻碍他们的探索性学习或导致直接抄袭作业,错失学习机会。然而,没有经验的人比有经验的人更持怀疑态度。本文还讨论了从这些发现中得出的含义和建议。关键词:人工智能聊天机器人、感知、教育用途、道德问题 1 引言 第四次工业革命开启了一个多种技术融合和快速发展的时代。值得注意的是,人工智能的引入不仅有望在制造业、经济和医疗保健等行业取得重大潜在进步,而且还在不断增加
摘要 — 在编程教育中,抄袭和滥用人工智能 (AI) 辅助是新出现的问题。然而,很少有相关研究关注网络编程。我们计划开发自动化工具来帮助教师识别这两种不当行为。为了充分了解这些问题,我们进行了一项对照实验,以观察不公平的收益和特征。我们比较了学生独立完成网络编程任务、提交抄袭和在人工智能辅助 (ChatGPT) 的帮助下完成任务的表现。我们的研究表明,涉及此类不当行为的学生获得相当的考试分数,但完成时间更短。抄袭的提交内容与独立的提交内容相似,除了颜色和标识符名称等琐碎方面。人工智能辅助的提交内容更复杂,可读性较差。学生们认为,如果适当承认使用,人工智能辅助可能会很有用,尽管他们对解决方案的可读性和正确性并不信服。
人工智能系统在新闻制作中的应用引发了一系列法律问题,我们在本文中对这些问题进行了探讨。我们认为,核心概念是原创性和创造性,法律要求能够归属作者并对作品实施法律保护机制,无论是简单作品、合作作品,甚至是创作作品。最受质疑的作品类型是衍生作品,即通过对已有作品进行改造而获得的作品,其作者权和权利人的经济开发权必须始终受到尊重。人工智能学习系统的实践明确承认它们基于受版权保护的各种作品,这些实践引发了许多问题,不符合合理使用例外的条件,而且该例外只适用于在具有普通法法律传统的司法管辖区内制作的作品,而不适用于其他具有保护知识产权的版权制度的国家。
话虽如此,这篇文章的引用比传统文章少得多,而且大多数都与文本中的相关“命题”无关。正如 ChatGPT 在下面描述其自身操作时所述,它基本上将所有内容用作来源;如果一切都是来源,那么如何引用任何东西呢?因此,许多引用不一定指向对任何给定“命题”的支持,而是指向 Frye 教授关于类似主题的著作——毕竟,他的查询产生了回应——或其他可以进一步告知读者所提出问题的评论来源。是否值得问一问,这些是否是“命题”,或者仅仅是一些具有某种有意排序的符号的组合,几乎就像成功完成的数独的英语版本?可能吧。文章后半部分的引用也减少了;此时,ChatGPT 似乎开始蚕食和/或重复使用自己的答案,因此提供引用似乎 ...不合适。