详细内容或原文请订阅后点击阅览
AI过度自信反映了人脑状况
研究人员发现了AI错误与Wernicke失语症之间的相似之处,提出了改善AI反应和诊断语言障碍的见解。AI后AI过度自信反映了人类脑状况,首次出现在科学询问者上。
来源:Scientific Inquirer代理商,聊天机器人和其他基于人工智能(AI)的工具在日常生活中越来越多地使用。所谓的大型语言模型(LLM)基于Chatgpt和Llama之类的代理商在其形成的响应中变得令人印象深刻,但经常提供令人信服但不正确的信息。东京大学的研究人员在这个问题和被称为失语症的人类语言障碍之间取得了相似之处,患者可能会说流利,但会发表毫无意义或难以理解的陈述。这种相似性可以指出更好的失语症诊断形式,甚至为寻求改善基于LLM的代理的AI工程师提供了见识。
本文是由人类撰写的,但是在许多领域,使用文本生成的AI正在上升。随着越来越多的人开始使用并依靠这些事情,需要不断增加的需求,以确保这些工具向用户提供正确且连贯的响应和信息。许多熟悉的工具,包括Chatgpt和其他工具,他们提供的一切都很流利。但是,由于它们产生的本质上构成内容的数量,他们的反应不能总是依靠。如果用户对有关主题领域的了解不足以了解,那么他们很容易假设此信息是正确的,尤其是考虑到高度的信心chatgpt和其他人的表现。
注册每日剂量新闻通讯,并从网络周围获取每个早晨的最佳科学新闻,直接传递到您的收件箱中?就像周日早上一样容易。
处理…
成功!您在名单上。
哇!有一个错误,我们无法处理您的订阅。请重新加载页面,然后重试。
看到精心设计的花园几乎可以立即放松我们,因为我们看着它们不同研究人员发现,精心设计的日本花园,例如京都的Murin-an,增强了放松,减少…