详细内容或原文请订阅后点击阅览
每日剂量:研究人员发明了一种假疾病,人工智能告诉世界这是真实的;脑类器官和道德护栏的紧迫性。
一种虚构的眼部疾病“bixonimania”说明了人工智能传播医疗错误信息的潜力,而机器人和计算的进步引发了道德问题并凸显了太空探索领域的国际竞争。
来源:Scientific Inquirer假疾病显示人工智能如何轻易毒害医学知识:《自然》杂志的一份报告研究了捏造的眼部疾病“bixonimania”如何通过主要人工智能系统甚至同行评审文献传播,暴露了大型语言模型处理医疗信息的严重缺陷。瑞典研究人员阿尔米拉·奥斯马诺维奇·通斯特伦 (Almira Osmanovic Thunström) 故意在博客文章和预印本中植入了虚假条件,并提供了荒谬的线索表明它是发明的。即便如此,包括 ChatGPT、Gemini、Copilot 和 Perplexity 在内的聊天机器人仍然会重复这些内容,就好像它是真实的一样,有时还会提供临床风格的建议。更糟糕的是,这些假论文后来在已发表的研究中被引用,这表明一些学者可能在不检查来源的情况下依赖人工智能生成的参考文献。文章认为,这种危险比恶作剧诊断更广泛:自动化系统可以大规模吸收、放大错误信息并使之合法化,因此在健康人工智能获得更广泛的信任之前,更强有力的评估、监督和验证至关重要。 (自然)
会说话的机器人导盲犬添加语言导航:宾厄姆顿大学的一个团队通过制造一款能够与用户真正交谈的机器人导盲犬,将辅助机器人技术推向了超越牵引绳的范畴。该系统使用大型语言模型在出发前讨论路线选择,然后叙述周围环境和障碍物,同时引导法定盲人用户穿过室内环境。在七名参与者的测试中,预先路线解释和实时场景描述的结合比更简单的引导模式更受青睐。这里的意义不仅仅是新颖性。它指向一种更具对话性、更高代理性的辅助移动模型,在该模型中,用户可以获得物理指导和态势感知。这项工作还处于早期阶段,还需要更多的室内和室外测试,但它表明了可解释的、以人为中心的导航机器人的美好未来。 (科技探索)
