您的1M+上下文窗口llm不如您想象的

为什么工作记忆比原始上下文窗口sizethe发布您的1M+上下文窗口llm的功能要比您想象的首先在数据科学上首先出现的功能更强大。

来源:走向数据科学

现在能够处理大量输入 - 它们的上下文窗口范围在200k(Claude)和2M令牌之间(Gemini 1.5 Pro)。那是280到2800页的文本!这些庞大的上下文窗口表明,在大多数实际情况下,我们不必太担心在输入方面达到LLM限制。但是,我们的最新研究表明,这不是事实。对于许多复杂上下文的问题,LLM的有效工作记忆可能会被相对较小的输入超载 - 在我们达到上下文窗口限制之前。

工作记忆可以超载

我们的论文介绍了一种新的计算理论模型,以解释为什么会发生这种情况,并在实验中表明我们的理论预测与现实世界的结果相匹配。我们的发现最终可以解释先前报道的LLM失败,例如LLM如何无法检测情节漏洞,难以理解长篇小说或在文件相似时错误地回答问题。

解释 llm失败 无法检测图孔 努力理解长篇小说 当文档相似时,错误地回答问题

下面我们通过回答以下问题来列出详细信息:

    如果我们超过LLM的工作内存会发生什么?我的任务需要大量工作记忆吗?如果我的任务需要大量工作记忆我该怎么办?为什么某些任务需要大量的工作记忆?
  • 如果我们超过LLM的工作记忆会发生什么?
  • 我的任务是否需要大量的工作记忆?
  • 我的
  • 如果我的任务需要大量工作记忆,该怎么办?
  • 为什么某些任务需要大量的工作记忆?
  • 如果我们超过LLM的工作记忆会发生什么?

    直观地说,需要大量上下文才能正确回答问题的任务也需要LLM跟踪大量信息。由于需要正确推理答案的理由所需的大小,因此LLM更有可能犯错,因为它无法将相关信息保留在其有限的工作记忆中。

    x7 bapo-hard f a g b