DeepSeek-R1型号,现在在亚马逊基岩市场上可用,亚马逊萨格人的舞会以及亚马逊Bedrock上的无服务器模型,其漫长而详尽的思维风格受到了推广,根据DeepSeek的公开成果,根据DeepSeek的成绩,在高度挑战性的Mathmarks上表现出了令人印象深刻的成绩,例如Aime-2024和Aime-2024和Math-500,以及竞争的竞争,以及竞争性的竞争,以及竞争性的2500000000000000型,以及竞争性的竞争。 Anthropic的Claude Sonnet 3.5,GPT 4O和OpenAI O1(本文的更多详细信息)。研究人员展示了DeepSeek-R1-Zero自然学会了如何以更多的思维时间来解决任务,从而导致表现的提高。 However, what often gets ignored is the number of thinking tokens required at inference time, and the time and cost of generating these tokens before answering the original question.In this post, we demonstrate how to optimize reasoning models like DeepSeek-R1 using prompt optimization on Amazon Bedrock.Long reasoning chains and challenges with maximum token limitsLet’s try out a straightforward question on DeepSeek-R1:For the given math problem: Nate’s dog can dig six holes一天。他在休假时挖了14天。内特回家后,他每天开始填充9个洞,但每晚狗一直在挖6个新孔。他需要几个星期的时间才能填写所有的孔?随着最大令牌从2,048增加到4,096,在打印最终答案之前,您应该看到一段时间的模型推理。本文末尾的附录提供了完整的响应。您也可以崩溃