•窃:为了响应提示,Chatgpt可能会无意中从其他来源中重现精确的文本而无需归因(Sun&Hoelscher,2023年)。即使它没有从其他来源产生精确的文本,也是一个开放的道德问题,即窃的定义是否应包括由AI工具产生的文本,听起来像是由另一个人撰写的,因为模型是基于该人的工作(Lund等,2023年)。•伪造:当Chatgpt并未完全重现现有材料时,有时会产生错误的新陈述。例如,即使人类会立即意识到它们是不正确的,它可能无法正确陈述复杂的事实。在某些情况下,Chatgpt甚至可以产生伪造的研究参考文献,即具有不存在论文的合理标题,作者和期刊组合的合理引用(Buriak等,2023; Sun&Hoelscher,2023; Zheng&Zhang&Zhan&Zhan,2023)。•错误的目标受众:如果生成AI未正确使用(有时甚至在当时),则可能会生成正确的文本,但不适用于目标受众或工作类型。换句话说,该语言对于专家读者来说可能太过口语了,或者对于外行读者来说太正式和技术性了。生成的文本可能包含社区成员未使用的单词或短语。生成的AI工具通常会在这些上下文问题上遇到困难,这些问题很容易被您的研究领域工作的人类读者检测到。•毫无意义的结果:chatgpt,尤其是当被要求产生大量文本时,有时会发出矛盾的陈述或产生完全语法的荒谬陈述,但没有逻辑上的意义(Barrot,2023; Sun&Hoelscher,2023; Zheng&Zhan; Zheng&Zhan,2023)。生成的AI工具也可能从在线资源中汲取科学不正确或进行严重争论以产生结论性陈述。
主要关键词