IDCC25 作者和审稿人使用生成式 AI 工具的指南 本指南基于:Lin, Z. (2024)。面向学术出版的 AI 政策框架,认知科学趋势,28(2),85-88。检索自 https://doi.org/10.1016/j.tics.2023.12.002 定义 生成式 AI 是一种人工智能技术,可以生成各种类型的内容,包括文本、图像、音频和合成数据。示例包括但不限于 ChatGPT、NovelAI、Gemini、Jasper AI、Rytr AI、DALL-E 等。出版道德 | 爱思唯尔政策。(nd)。爱思唯尔。 2024 年 5 月 9 日检索自 https://www.elsevier.com/about/policies-and-standards/publishing-ethics 作者指南 如果使用生成式人工智能开发投稿或投稿的任何部分,则必须描述其用途和目的。作者应准备好提供有关其投稿中所用工具和生成内容的提示的信息。作者有责任对人工智能生成的内容进行适当审查,以避免不准确和抄袭。使用生成式人工智能创建内容并不意味着相关工具的作者身份。 为本指南提供指导的出版商政策:出版伦理最佳实践指南 | Wiley。(nd)。2024 年 5 月 9 日检索自 https://authorservices.wiley.com/ethics-guidelines/index.html#22 ChatGPT 和生成式人工智能。(2023 年 1 月 27 日)。 SAGE Publications Inc. https://us.sagepub.com/en-us/nam/chatgpt-and-generative-ai 审稿人指南 审稿人不得将稿件或稿件的任何部分上传到生成式 AI 工具中,即使是为了改善其审稿的语言和可读性。这是基于对稿件中个人数据和/或专有信息的机密性的尊重,以及通过防止它们成为训练数据集的一部分来尊重知识产权。此外,审稿过程是一项人类活动
背景:在人工智能 (AI) 快速发展的背景下,科学出版正在经历重大变革。人工智能工具在论文起草和同行评审方面提供无与伦比的效率,但也带来了值得注意的道德问题。内容:本研究概述了人工智能在科学出版中的双重角色:作为科学论文撰写和审查的共同创造者以及作为道德挑战。我们首先探讨人工智能作为科学论文创作效率、效率和质量增强剂的潜力。接下来是批判性评估,评估研究人员的风险与回报,尤其是职业生涯早期的研究人员,强调需要在人工智能的能力与培养独立推理和创造力之间保持平衡。随后,我们深入探讨人工智能参与的道德困境,特别是关于原创性、剽窃和保留科学话语的真正本质。不断发展的动态进一步凸显了一个被忽视的方面:学术界对人类审稿人的认可不足
•许多大学,STM组织,出版伦理组织(例如COPE),学识渊博的社会和出版商为研究人员制定了负责(生成)AI的研究人员的政策。我们正在合作制定统一和可理解的准则,并通过作者网络研讨会,在线面板和其他活动提供更多的上下文。
Wang, P., & Su, J. (2021). 出版后专家在教师意见中的推荐 (F1000Prime):推荐文章和引用。信息计量学杂志,15 (3),101174。https://doi.org/10. 1016/j.joi.2021.101174 Wardle, DA (2010)。生态出版物的教师评分 1000 0 (F1000) 是否可以合理预测其未来影响?生态学和进化中的思想,3,11-15。https://doi.org/10.4033/iee.2010.3.3.c
2022 年 12 月,《自然》杂志发表了第一篇讨论对在学术写作中使用 ChatGPT 和 GAI 的担忧的文章。14 从那时起,期刊和出版商开始更新其编辑政策和对作者的说明,以指导如何在学术研究中披露 GAI 的使用。《科学》杂志于 2023 年 1 月发表了一篇文章,表示决定禁止在写作过程中使用 GAI 生成文本、图形、图像或图表,并认为违反该政策构成科学不端行为。15 其他期刊允许在有限制的情况下使用 GAI,并要求完全披露。 16 出版伦理委员会 (COPE) 是一个由编辑、出版商、大学和研究机构组成的组织,旨在帮助所有学科的出版伦理规范,17 该委员会于 2023 年 2 月发布了一份关于研究出版物中人工智能工具的立场声明,18 强调“人工智能工具无法满足作者身份的要求,因为它们无法对提交的作品负责”,同时还建议了披露人工智能使用情况的方法,并强调作者对人工智能工具所产生的作品负责。18
在2022年12月,大自然发表了第一篇文章,讨论了有关在学术写作中使用Chatgpt和Gai的担忧。14从那时起,期刊和出版商已开始向作者更新其编辑政策和指示,以提供有关如何在学术研究中披露GAI使用的指导。Science在2023年1月发表了一篇文章,该文章宣布其禁止使用GAI在写作过程中生成文本,数字图像或图形的决定,并认为违反该政策是构成科学不当行为的。其他15个期刊允许使用GAI有限制和全面披露的要求。16由编辑,出版商,大学和研究机构组成的组织委员会(COPE)有助于为所有学术学科的出版物伦理提供信息,17在2023年2月在研究出版物中的AI工具上发表了一份立场声明,该声明在研究出版物中于18年2月18日强调,“ AI也无法遵守AI的责任,同时宣布AI的责任,而AI的责任是AI的责任”对AI工具生产的工作负责。18
每个科学纪律都制定了出版标准,旨在帮助研究人员简洁地传达支持他们结论的证据,并允许其他人在工作基础上建立。例如,要发布新化合物的第一份报告,合成化学必须提供NMR和质谱,因为有广泛的共识,即这些分析技术必须表明根据预期制备了化合物。同样,当开发新软件时,几乎需要普遍要求在出版物上提供源代码,以便其他人可以检查其功能并重复使用它。在2011年,建议应报告完整的DNA序列以支持合成生物学出版物[1]。今天,生物工程和生命科学的其他领域仍然遭受令人困惑,不一致和发布DNA序列的足够标准。在研究期间开发的质粒和基因组的序列有时根本不作为出版物的一部分,或者仅以指示形式以如何组装它们而不是最终序列的形式。这类似于计算机科学纸,省略了其代码或描述如何通过在其他论文中复制代码来重建代码。如果生物学家正在重新编程,为什么他们不期望发布其源代码?通过复制和粘贴一部分现有DNA序列来构建工程DNA时的一些实践,并且它很昂贵,困难甚至无法检查结果。然而,测序技术现已改善,以至于确定质粒甚至基因组的整个核苷酸序列变得廉价且易于访问。在2023年,对整个质粒进行测序的费用为15美元,并且测序细菌基因组的成本为100美元,这些价格可能会下降。与compoter代码不同,DNA可以突变,当酶或细胞复制时会积累其顺序变化。这种意外进化的可能性使得验证研究中使用的DNA序列即使不是新构建也是特别重要的。
人工智能正在改变我们的世界,而我们尚未完全理解或利用其力量。这是一场席卷一切的旋风。ChatGPT 等法学硕士的出现以及人们对其能力的认识不断提高,正在挑战许多行业,包括学术出版业。内容创作的潜在好处显而易见,例如有机会克服语言障碍。然而,也存在危害:法学硕士编写的文本可能不准确,参考文献可能不可靠。关于人工智能对内容负责的程度、所制作内容的原创性和质量以及偏见、不当行为和错误信息的可能性,仍然存在疑问。
毫无疑问,生成式人工智能 (AI) 是近年来媒体上的热门话题。这最初是由 ChatGPT 和其他平台的流行和广泛使用推动的,这些平台可根据用户输入的提示生成书面材料、图像甚至音频/视频作品。AI 将生成式人工智能定义为:“一种使用机器学习算法来创建新的原创内容(如图像、视频、文本和音频)的人工智能” [1]。这些技术进步如何影响我们的科学出版界?具体来说,在撰写出版的科学文章时,何时使用此类工具是合适的,或许更重要的是,何时不适合?严格来说,每当文字处理器建议一种更好的句子措辞方式时,基础人工智能就会被应用到写作中。从更复杂的层面来看,作者可以使用大型语言模型 (LLM) 将粗略撰写的草稿提交给生成式 AI 平台,然后可以生成更复杂的书面输出并最终提交。如果英语课的学生提交了这样一篇作业,而这堂课的目的是教学生如何写好文章,那么这种使用 AI 的行为可能构成作弊。然而,当作者使用 AI 来帮助润色他们的作品以供出版时,这应该是完全合适的,因为这样的应用程序可以增强作品,帮助读者更好地理解和欣赏这些作品。我们的期刊最近开始为我们的作者提供使用“综合写作和出版助手”来改进他们的投稿的选项。投稿作者应该看到我们与 Paperpal 飞行前筛选工具合作的服务链接。只需支付非常合理的费用,该工具就可以对上传的手稿草稿进行翻译、释义、一致性和期刊提交准备情况检查。这项服务对一些可能难以满足我们的语言要求标准的国际作者特别有用。在另一个适用于出版的场景中,假设同行评审员希望使用 AI 来评估投稿。你可能会问:“等等,AI 能做到吗?”当然可以!但这可以接受吗?确实有一些平台在公开的生物医学出版物上进行了训练,因此 AI 能够查找参考文献来帮助同行评审员评估稿件。也许同行评审员只是需要帮助开始撰写评审的第一稿,或者他们可能觉得作者的语言技能需要很多帮助,就像前面的情况一样。然而,这里的一个主要区别是,当同行评审员在其中一个平台上上传稿件时,他们会违反保密规定,这是不可接受的。美国国立卫生研究院不允许将 AI 用于资助申请的同行评审 [ 2 ],这种技术也不应用于出版同行评审,因为当作者的手稿上传到第三方平台时,也会发生同样的保密性泄露。Hosseini 和 Horbach (2023) 指出的其他担忧是“ LLM 的训练数据、内部运作、数据处理和开发过程的根本不透明性”,这可能导致“潜在的偏见和评审报告的可重复性” [3]。因此,将指示 JECT 同行评审员在进行评估时不要依赖此类系统。此外,编辑不会仅使用 AI 工具就任何手稿的最终结果做出决定。为了帮助作者驾驭这一新领域,JECT 将努力在我们的《作者须知》中提供新的指导,就像其他期刊目前正在实施的那样 [4]。其他期刊推荐的一些原则,我们可能会采用,包括:
信息搜索和过滤中的人工智能可以显著降低从数据收集到分析、论文撰写和出版等各个步骤的科研成本,而这一直是科研人员最头疼的问题,尤其是来自资源匮乏地区的科研人员 [6]。其次,人工智能可以帮助科研人员完成繁琐的技术工作,使他们能够将精力更多地集中在创造性研究上。这对当前出版系统中时间压力巨大的编辑人员也很有帮助。第三,基于 NLP 的人工智能可以为非英语母语的科研人员在出版过程中提供巨大帮助,对早期职业科研人员 (ECR) 更是如此 [15]。非英语母语人士在全球科学界占很大比例。借助人工智能进行语言编辑,这些科研人员可以将更多的精力投入到科学的真正本质中:推理、方法和寻找关键见解。最后但同样重要的是,应该再次提到的是,开放科学运动与开源人工智能保持一致,促进透明的数据共享和合作开发。