详细内容或原文请订阅后点击阅览
教AI接受不确定性
波士顿最近的校友活动的回顾
来源:约翰霍普金斯大学byjaimie Patterson
Jaimie Patterson / < / div> 已发布 2025年6月26日在诸如医疗保健等高风险情况下,或者周末危险! - 说“我不知道”比错误地回答更安全。医生,游戏表演参赛者和标准化的考试者都理解了这一点,但是大多数人工智能应用程序仍然更喜欢给出可能错误的答案,而不是承认不确定性。
危险!Johns Hopkins计算机科学家认为他们有一个解决方案:一种新方法,允许AI模型花费更多的时间思考问题,并使用信心得分来确定AI何时应该说“我不知道”,而不是冒着错误的答案,对医学,法律或工程等高级领域的重要答案至关重要。
一种新方法研究小组将在7月27日至8月1日在奥地利维也纳举行的计算语言学协会第63届年会上介绍其调查结果。
第63届计算语言学协会年会“当您要求高信心时,让系统认为更长的时间意味着它将提供更正确的答案
和更不正确的答案。”
William Jurayj
博士生,惠廷工程学院
“这一切都始于当我们看到尖端的大语言模型花更多的时间思考解决更严重的问题时。一位研究计算机科学的博士生William Jurayj说,他隶属于惠廷工程学院的语言和语音处理中心。
语言和语音处理中心他们发现,在更严格的赔率下,模型应拒绝回答一个问题,如果它在计算预算后的答案不足,则该问题是否不够自信。在更高的信心门槛上,这将意味着更多的问题没有得到解答,但这不一定是一件坏事。
Jeffrey Cheng 本杰明·范·杜尔姆(Benjamin Van Durme)