详细内容或原文请订阅后点击阅览
适应AI的推理时代
任何在大学中参加考试的人都知道,反流信息的令人印象深刻的能力并不是批判性思维的代名词。大型语言模型(LLMS)于2022年首次公开发行,但有限,但有限,就像有才华的学生一样,他们在多项选择考试中表现出色,但当被要求捍卫自己的逻辑时就会跌跌撞撞。今天的高级推理模型是…
来源:MIT Technology Review _人工智能作为AI系统,通过模仿人脑的机制继续发展,我们目睹了从死记硬背反流到真正推理的模型的演变。这种能力标志着AI演变的新章节,以及企业可以从中获得什么。但是,为了利用这一巨大的潜力,组织将需要确保他们拥有正确的基础架构和计算资源来支持前进的技术。
通过模仿人脑的机制学习推理革命
“推理模型在质量上不同于早期的LLM,” Microsoft合作伙伴AI/HPC架构师Prabhat Ram说,并指出这些模型可以探索不同的假设,评估答案是否始终如一,并相应地调整其方法。 “它们本质上是根据他们所接触的培训数据来创建决策树的内部表示,并探索哪种解决方案可能是最好的。”
这种适应性解决问题的方法并非没有权衡。较早的LLM基于统计模式匹配和概率分析以毫秒为单位的输出。对于许多应用程序来说,这是并且仍然有效,但是它不允许AI足够的时间彻底评估多个解决方案路径。
在较新的模型中,推断期间的扩展计算时间(二,分钟甚至更长)允许AI采用更复杂的内部强化学习。这为多步问题解决和更细微的决策打开了大门。
企业应用程序的企业应用程序
拥有这些见解,他们自己的经验和情商,人类医生,研究人员和财务分析师可以更快地做出更明智的决定。但是,在将这些系统设置在野外,保障措施和治理框架之前,将需要成为Ironclad,尤其是在诸如医疗保健或自动驾驶汽车之类的高风险环境中。