人工智能代理可能是熟练的研究人员,但并不总是诚实的

两个备受瞩目的工具已被证明可以编造数据并“破解”其结果

来源:Science Magazine

加拿大温哥华——旨在执行端到端项目(从提出假设到运行和编写实验)的人工智能 (AI) 工具越来越受到研究人员的欢迎,而且技术也越来越熟练。但一项新研究表明,这些工具可能会悄悄违反研究诚信规范。

卡内基梅隆大学的计算机科学家 Nihar Shah 及其同事研究了两个备受瞩目的工具:Agent Laboratory 和 AI Scientist v2,这两个工具都是最近开发的,旨在帮助计算机科学家在机器学习领域进行实验。今年早些时候,人工智能科学家成为头条新闻,因为它是第一个原创研究论文被同行评审接受的人工智能系统。

但在今天举行的世界研究诚信大会上的演讲中,Shah 报告称,这两个系统都存在研究中不可接受的行为,包括伪造数据和“p-hacking”:多次运行实验,但只报告最佳结果。 (该团队的结果之前已作为预印本发布在 arXiv 上。)这些不当行为并不明显,需要进行大量调查才能追踪,这表明人工智能辅助研究可能会在作者不知情的情况下成为此类问题的受害者。

“他们的核心发现值得认真对待,”计算机科学家塞缪尔·施密德加尔 (Samuel Schmidgall) 说道,他在约翰·霍普金斯大学期间共同开发了代理实验室。他说,像沙阿这样的工作很重要,可以让研究人员清楚地了解人工智能如何让事情误入歧途。他补充说,人工智能科学家已经提出了大量免责声明,强调人类监督在每个阶段都至关重要。

AI 科学家联合开发者、不列颠哥伦比亚大学计算机科学家 Jeff Clune 对此表示同意。 “我们并不是提倡人们简单地使用这些系统来产生科学并按原样发布结果。”他说,人工智能科学家在其生成的论文中添加了数字水印,以显示其出处。