详细内容或原文请订阅后点击阅览
科学家表示,他们已经消除了人工智能的一个主要瓶颈——现在他们可以“以光速”处理计算
科学家认为,一种新的架构用被动、单次光速操作取代了传统瓶颈,这可能成为 AGI 的基础硬件。
来源:LiveScience科学家们开发出了下一代光学计算的基础架构——使用光而不是电力为芯片供电——这可能会彻底改变人工智能 (AI) 模型的训练和执行方式。
人工智能大型语言模型 (LLM) 和基于深度学习的模型的核心是一种称为“张量”的加权组织结构,其工作原理就像一个带有便签的文件柜,指示哪些抽屉最常用。
当人工智能模型被训练来执行任务或功能时,例如识别图像或预测文本字符串,它将数据分类到这些张量中。在现代人工智能系统中,模型处理张量数据(或对文件柜进行排序)的速度是一个基本的性能瓶颈,代表着模型大小的硬性限制。
在典型的基于光的计算中,模型通过多次发射激光阵列来解析张量。它们的功能就像一台扫描包裹上的条形码以确定其内容的机器,只不过在这种情况下,每个容器都引用一个数学问题。处理这些数字所需的处理能力与模型的固有功能成正比。
虽然基于光的计算在较小规模下速度更快、更节能,但大多数光学系统无法并行运行。与图形处理单元 (GPU) 不同,图形处理单元 (GPU) 可以链接在一起以指数方式增加处理能力的数量和可用性,基于光的系统通常是线性运行的。正因为如此,大多数开发人员都冷落光计算,转而支持大规模提高功率的并行处理优势。
这种扩展瓶颈就是为什么 OpenAI、Anthropic、Google 和 xAI 等公司制作的最强大的模型需要数千个串联运行的 GPU 来进行训练和操作。
