LLM 温度🔥🌡️ 综合指南

在构建我自己的基于 LLM 的应用程序时,我发现了许多提示工程指南,但很少有用于确定温度设置的等效指南。当然,温度是一个简单的数值,而提示可能会变得非常复杂,因此作为产品决策,它可能感觉微不足道。尽管如此,选择合适的温度可以极大地改变 […]The post LLM 温度综合指南🔥🌡️ 首先出现在 Towards Data Science 上。

来源:走向数据科学

在构建我自己的基于 LLM 的应用程序时,我发现了许多提示工程指南,但很少有用于确定温度设置的等效指南。

当然,温度是一个简单的数值,而提示可能会变得非常复杂,因此作为产品决策,它可能感觉微不足道。 尽管如此,选择正确的温度可以极大地改变输出的性质,任何构建生产质量 LLM 应用程序的人都应该有意识地选择温度值。

在这篇文章中,我们将探讨温度是什么以及它背后的数学原理、潜在的产品影响,以及如何为您的 LLM 应用程序选择合适的温度并对其进行评估。 最后,我希望您有一个明确的行动方针,为每个 LLM 用例找到合适的温度。

什么是温度?

什么是温度?

温度是一个控制 LLM 输出随机性的数字。大多数 API 将值限制为 0 到 1 或类似的范围,以使输出保持在语义一致的范围内。

来自 OpenAI 的文档:

“较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使其更加集中和确定。”

“较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使其更加集中和确定。”

“较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使其更加集中和确定。”

直观地说,它就像一个拨盘,可以调整模型在给出答案时的“探索性”或“保守性”。

这些温度值是什么意思?

这些温度值是什么意思?

就我个人而言,我发现温度场背后的数学非常有趣,所以我会深入研究它。但如果你已经熟悉 LLM 的内部结构或对它们不感兴趣,请随意跳过本节。

请随意跳过本节

但让我们回顾一下。这些概率是如何产生的?

logits 机器学习 softmax
Softmax 公式
e