思想树提示:教LLMS慢慢思考

用增强推理的邮政思想树促使人们进行扫雷者:教LLMS慢慢地出现在数据科学方面。

来源:走向数据科学
“缓慢的思考(系统2)是艰苦,频繁,逻辑,计算,有意识的。” - 丹尼尔·卡尼曼(Daniel Kahneman

“缓慢的思考(系统2)是艰苦的,频繁的,逻辑,计算,有意识的。”

- 丹尼尔·卡尼曼(Daniel Kahneman),思考,快速而慢

思考,快速而慢

大型语言模型(LLM)(例如Chatgpt)通常表现为2002年诺贝尔经济科学纪念奖的丹尼尔·卡尼曼(Daniel Kahneman)将其定义为系统1:它是快速,自信且几乎轻松的。您是对的:还有一个系统2,一种较慢,更努力的思维方式。

研究人员多年来一直在开发通过更好的提示策略将系统2式思维带入LLM的方法。经过思考树(TOT)提​​示是最出色的技术之一,它允许该模型遵循多个推理路径,从而导致潜在的更好的决策。

在这篇博客文章中,我将进行一个案例研究,其中一个由小便的LLM代理商扮演经典的游戏扫雷器 - 不是通过猜测,而是通过推理。就像你一样。

cot和tot

我们可能会从想法链(COT)提示开始我们的故事 - 一种指导LLMS逐步推理的技术。查看以下示例:

思想链(COT)提示

问:我在超市买了10苹果。然后,我给邻居给了2个苹果,另外2个给了我的猪。现在对我来说没有足够的苹果!然后我从杂货店买了5种苹果,但有1个烂了。现在有几个苹果?a:您曾经有10个苹果。您将2个苹果给邻居,并给猪2个苹果。现在您有6个苹果。然后,您购买了另外5种苹果,所以您有11个苹果。最后,您吃了1个苹果,因此您最终还有10个苹果。

Q: a: 您可以看到,LLM指导思考逐步思考,模拟了更好的推理。 思想树(TOT)提​​示在COT上展开。 As the name suggests, It organizes reasoning like a tree where each node is a potential “thought,” and branches are possible paths.它不遵循像COT这样的线性过程。 分支1:移动8人 Q:

a:

您可以看到,LLM指导思考逐步思考,模拟了更好的推理。

思想树(TOT)提​​示在COT上展开。 As the name suggests, It organizes reasoning like a tree where each node is a potential “thought,” and branches are possible paths.它不遵循像COT这样的线性过程。分支1:移动8人