详细内容或原文请订阅后点击阅览
思想树提示:教LLMS慢慢思考
用增强推理的邮政思想树促使人们进行扫雷者:教LLMS慢慢地出现在数据科学方面。
来源:走向数据科学“缓慢的思考(系统2)是艰苦,频繁,逻辑,计算,有意识的。” - 丹尼尔·卡尼曼(Daniel Kahneman
“缓慢的思考(系统2)是艰苦的,频繁的,逻辑,计算,有意识的。”
- 丹尼尔·卡尼曼(Daniel Kahneman),思考,快速而慢
思考,快速而慢大型语言模型(LLM)(例如Chatgpt)通常表现为2002年诺贝尔经济科学纪念奖的丹尼尔·卡尼曼(Daniel Kahneman)将其定义为系统1:它是快速,自信且几乎轻松的。您是对的:还有一个系统2,一种较慢,更努力的思维方式。
研究人员多年来一直在开发通过更好的提示策略将系统2式思维带入LLM的方法。经过思考树(TOT)提示是最出色的技术之一,它允许该模型遵循多个推理路径,从而导致潜在的更好的决策。
在这篇博客文章中,我将进行一个案例研究,其中一个由小便的LLM代理商扮演经典的游戏扫雷器 - 不是通过猜测,而是通过推理。就像你一样。
cot和tot
我们可能会从想法链(COT)提示开始我们的故事 - 一种指导LLMS逐步推理的技术。查看以下示例:
思想链(COT)提示问:我在超市买了10苹果。然后,我给邻居给了2个苹果,另外2个给了我的猪。现在对我来说没有足够的苹果!然后我从杂货店买了5种苹果,但有1个烂了。现在有几个苹果?a:您曾经有10个苹果。您将2个苹果给邻居,并给猪2个苹果。现在您有6个苹果。然后,您购买了另外5种苹果,所以您有11个苹果。最后,您吃了1个苹果,因此您最终还有10个苹果。
Q: a: 您可以看到,LLM指导思考逐步思考,模拟了更好的推理。 思想树(TOT)提示在COT上展开。 As the name suggests, It organizes reasoning like a tree where each node is a potential “thought,” and branches are possible paths.它不遵循像COT这样的线性过程。 分支1:移动8人 Q:a:
您可以看到,LLM指导思考逐步思考,模拟了更好的推理。
思想树(TOT)提示在COT上展开。 As the name suggests, It organizes reasoning like a tree where each node is a potential “thought,” and branches are possible paths.它不遵循像COT这样的线性过程。分支1:移动8人