对人工智能介导的同行评审伦理问题的批判性审视 Laurie A. Schintler*,乔治梅森大学 Connie L. McNeely,乔治梅森大学 James Witte,乔治梅森大学 *通讯作者:lschintl@gmu.edu 摘要 人工智能 (AI) 系统的最新进展,包括 ChatGPT 等大型语言模型,为学术同行评审带来了希望和危险。一方面,人工智能可以通过解决出版延迟较长等问题来提高效率。另一方面,它带来了道德和社会问题,可能会损害同行评审过程和结果的完整性。然而,人类同行评审系统也充满了相关问题,例如偏见、滥用和缺乏透明度,这些问题已经降低了可信度。虽然人们越来越关注人工智能在同行评审中的应用,但讨论主要围绕学术期刊出版中的剽窃和作者身份展开,忽视了同行评审所处的更广泛的认识论、社会、文化和社会认识论。人工智能驱动的同行评审的合法性取决于与科学精神的一致性,包括定义学术界适当行为的道德和认知规范。在这方面,存在一个“规范-反规范连续体”,其中人工智能在同行评审中的可接受性由制度逻辑、道德实践和内部监管机制决定。这里的讨论强调需要批判性地评估人工智能驱动的同行评审的合法性,解决相对于影响其实施和影响的更广泛的认知、社会、伦理和监管因素的利弊。关键词:人工智能、ChatGPT、同行评审、伦理、科学精神 1. 简介 科学是社会知识的中心,因此,它本质上是一种社会制度结构。从这个意义上说,科学传播中的知识治理和评估是一项基本的社会活动,主要由学术同行评审的过程定义(Polanyi,1962 年)。在过去的半个世纪里,学术同行评审经历了一场涉及计算机和互联网等信息技术的数字化转型(Vicente-Saez 等人,2021 年)。现在,人工智能(AI)——指的是通过计算公式、规则和逻辑“能够通过展示智能、类似人类的行为来执行任务”的技术系统(Russell & Norvig,2021 年)——正在被整合到相关活动中,以增强和自动化各种决策,从选择审稿人到淘汰被判定为低质量或欺诈的研究(Heaven,2018 年;Jana,2019 年;Checco 等人,2021 年)。自然语言处理器(NLP)、大型语言模型(LLM)和其他生成式人工智能技术(例如 ChatGPT 1)的最新突破可能会进一步颠覆同行评审系统,不仅带来了新的前景,也带来了前所未有的担忧和挑战(van Dis 等人,2023 年)。在