详细内容或原文请订阅后点击阅览
嘿ChatGPT,给我写一篇虚构的论文:这些LLM愿意进行学术造假
研究发现,主流聊天机器人对故意制造请求表现出不同程度的抵制
来源:科学美国人嘿ChatGPT,给我写一篇虚构的论文:这些LLM愿意进行学术造假
研究发现,主流聊天机器人对故意制造请求表现出不同程度的抵制
作者:Elizabeth Gibney&Nature 杂志
史密斯收藏/Gado/Getty
对 13 个模型的测试发现,所有主要的大型语言模型 (LLM) 都可用于进行学术欺诈或促进垃圾科学。
尽管如此,一些法学硕士在实验中的表现比其他人更好,实验中模型收到提示,模拟用户就从真正的好奇心到公然的学术欺诈等问题寻求帮助。当被反复询问时,最抵制欺诈的是加利福尼亚州旧金山 Anthropic 制造的所有版本的 Claude。与此同时,来自加利福尼亚州帕洛阿尔托 xAI 的 Grok 版本和来自旧金山 OpenAI 的 GPT 早期版本表现最差。
该项目由亚历山大·阿勒米 (Alexander Alemi) 和保罗·金斯帕格 (Paul Ginsparg) 构思,前者是一位以个人身份工作的人类研究员,后者是纽约州伊萨卡康奈尔大学的物理学家、预印本存储库 arXiv 的创始人。他们创建它是为了测试让法学硕士创建文章提交到 arXiv 是多么容易,在过去几年里,arXiv 已经被大量的提交内容淹没了。他们的结果于一月份完整发布在 Alemi 的网站上,尚未经过同行评审。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻事业。通过购买订阅,您将有助于确保有关塑造当今世界的发现和想法的影响力故事的未来。
英国吉尔福德萨里大学的生物医学科学家马特·斯皮克(Matt Spick)研究了与法学硕士相关的低质量论文的激增,他表示,这些发现“应该给开发人员敲响警钟,让他们知道利用法学硕士进行误导性和低质量的科学研究是多么容易”。
