摘要:GPU系统上的AI应用程序在过去10年中随着单芯片推理性能的增加而爆炸了1000倍。需要数以万计的数据中心连接的GPU来训练和推断最先进的生成AI模型。每一代的带宽密度需求增加了2倍。在这些系统的核心,处理器和交换机的核心中被用作2.5D和3D配置中的多个模具。在系统中这些模具之间的超高效互连需要支持整体系统带宽。此谈话将从电路,包装,电源输送和靶向能量效率的热管理范围<100fj/b和带宽密度> 10TBPS/mm的角度来研究最新的当前和未来电气和未来电气和光学芯片到芯片通信。
主要关键词