详细内容或原文请订阅后点击阅览
以规模为无缝AI加油
从大型语言模型(LLM)到推理代理,当今的AI工具带来了前所未有的计算需求。数万亿参数模型,运行在设备上的工作负载以及成群以完成任务的代理商都需要新的计算范式,才能变得真正无缝且无处不在。首先,硬件和硅设计方面的技术进步对于突破边界至关重要……
来源:MIT Technology Review _人工智能硅的中年危机
AI已从经典的ML演变为深度学习,再到生成性AI。最近的一章占据了AI主流,在两个阶段(训练和推理)取决于数据和能源密集于计算,数据运动和冷却。同时,摩尔定律确定芯片上的晶体管数量每两年翻了一番,它达到了身体和经济的高原。
达到身体和经济高原在过去的40年中,硅芯片和数字技术互相推动 - 在处理能力方面的各个步伐都提高了创新者的想象力,以设想新产品,这需要更多的能力来运行。在AI时代,这是在轻速的情况下发生的。
随着模型变得越来越容易获得,大规模部署将焦点放在了推理和日常用例中训练有素的模型。此过渡需要适当的硬件来有效处理推理任务。中央处理单元(CPU)数十年来一直管理了一般计算任务,但是ML的广泛采用引入了扩展了传统CPU的能力的计算需求。这导致了图形处理单元(GPU)和其他加速器芯片的采用,以训练复杂的神经网络,因为它们的平行执行能力和高内存带宽允许有效地处理大型数学操作。
推进硅芯片创新 独角兽启动LightMatter 量子计算