详细内容或原文请订阅后点击阅览
自我反射不确定性:LLM知道他们的内部答案分布吗?
本文在ICML 2025的可靠和负责任的基础模型(RRFMS)研讨会上接受了本文。不确定量化在将大语言模型(LLMS)带到最终用户时起着关键作用。它的主要目标是LLM应该指出何时不确定其给出答案。尽管过去已经以数值确定性得分来揭示,但我们建议使用LLM的丰富输出空间,LLM的所有可能字符串的空间,以提供描述不确定性的字符串。特别是,我们寻求一个描述LLM答案分布的字符串……
来源:Apple机器学习研究本文在ICML 2025的可靠和负责任的基础模型(RRFMS)研讨会上接受。
不确定性量化在将大型语言模型(LLM)带到最终用户时起着关键作用。它的主要目标是LLM应该指出何时不确定其给出答案。尽管过去已经以数值确定性得分来揭示,但我们建议使用LLM的丰富输出空间,LLM的所有可能字符串的空间,以提供描述不确定性的字符串。特别是,我们寻求一个描述LLM回答问题的分布的字符串。为了衡量这一点,我们首先提出字符串和字符串分布之间的自我反射距离。我们验证它是否按预期工作,然后将其应用于研究现代LLM在抽样响应后或甚至不采样的情况下,仅通过思考链推理来总结他们的思想。
- **在Apple