AI模型正在使用缩回科学论文的材料

根据最近的研究,一些AI聊天机器人依靠缩回的科学论文的有缺陷的研究来回答问题。麻省理工学院技术评论证实的这一发现提出了有关AI工具评估科学研究的可靠工具的疑问,并可能使寻求投资于科学家投资的国家和行业的努力变得复杂。 AI搜索…

来源:MIT Technology Review _人工智能

“如果[工具]面对普通大众,那么将撤回作为一种质量指标非常重要,”伊利诺伊大学Urbana-Champaign的信息科学研究人员Yuanxi Fu说。她说:“有一种协议是从科学的记录中撤回的。” Openai没有提供有关论文结果的评论请求的回应。

问题不仅限于chatgpt。 6月,麻省理工学院技术评论测试了专门为研究工作做广告的AI工具,例如ITICER,AI2 ScholarQA(现为艾伦人工智能研究所的ASTA工具的一部分),困惑和共识,并使用基于GU研究中的21个收回论文的问题。引起的答案中引用了五篇缩回论文,而AI2 Scholarqa提到了17,困惑11和共识18,所有这些都没有注意到缩回。

麻省理工学院技术评论

此后有些公司采取了行动来纠正问题。 “直到最近,我们的搜索引擎还没有出色的撤回数据,”共识联合创始人克里斯蒂安·塞勒姆(Christian Salem)说。他的公司现在已经开始使用来自多种来源的撤回数据,包括发布者和数据聚合器,独立的Web爬网和撤回手表,该数据手动策划和维护缩回数据库。在八月份对同一篇论文的测试中,共识仅引用了五篇缩回的论文。

缩回手表 数据库

inticit告诉麻省理工学院技术评论,它从其数据库中删除了学术研究目录openalex标记的撤回论文,并“仍在综合缩回来源”。 AI2告诉我们,其工具目前未自动检测或删除缩回的纸张。困惑说,“ [确实]从来没有声称自己是100%准确的。”