AI科学研究的摘要过于简化发现

由大语言模型(LLM)驱动的人工智能聊天机器人在总结科学论文时倾向于夸大研究范围。他们分析了4,900个聊天机器人生成的科学摘要摘要(本身就是科学论文开始时的简短摘要),发现它们比人类专家的可能性过度概括的发现的可能性高五倍。研究人员并未要求聊天机器人为专家受众编写摘要,但他们确实在提示中要求“系统性,详细和忠实的抽象摘要”。具有讽刺意味的是,促使准确性提高了过度倾向,而较新的LLM模型的准确性不如较旧的模型。

来源:Scimex

AI科学研究的摘要过于简化发现

禁运直到:公开发行:2025-04-16 09:01

禁运直到: 公开发布: 2025-04-16 09:01

由大语言模型(LLM)驱动的人工智能聊天机器人在总结科学论文时倾向于夸大研究范围。他们分析了4,900个聊天机器人生成的科学摘要摘要(本身就是科学论文开始时的简短摘要),发现它们比人类专家的可能性过度概括的发现的可能性高五倍。研究人员并未要求聊天机器人为专家受众编写摘要,但他们确实在提示中要求“系统性,详细和忠实的抽象摘要”。具有讽刺意味的是,促使准确性提高了过度倾向,而较新的LLM模型的准确性不如较旧的模型。

期刊/会议:皇家学会公开科学

日记/会议:

研究:论文

研究:

组织/S:剑桥大学乌得勒支大学

组织/S:

资助者:o本文已收到资金。

资助者:

媒体版本

AI聊天机器人过度笼统,“造成了大规模误解研究结果的重大风险”。分析了4,900个聊天机器人生成的论文摘要,涵盖咖啡对气候变化信念的健康益处,发现某些聊天机器人的聊天机器人的过度概括性可能是人类摘要的近五倍。具有讽刺意味的是,促使准确性提高了这种趋势。研究人员呼吁采取更强大的保障措施,并强调潜在的缓解策略,例如为准确性做出大型语言模型。