科学家刚刚使光速人工智能成为现实

研究人员展示了光速下的单次张量计算,标志着向由光学而非电子计算驱动的下一代 AGI 硬件迈出了显着的一步。张量运算是一种数学处理,支撑着许多现代技术,尤其是人工智能,但它们远远超出了大多数人遇到的基础数学。一个有用的 [...]

来源:SciTech日报
虽然人类和经典计算机必须逐步执行张量运算,但光可以一次完成所有这些操作。图片来源:光子学小组/阿尔托大学

研究人员展示了光速下的单次张量计算,标志着向由光学而非电子计算驱动的下一代 AGI 硬件迈出了显着的一步。

张量运算是一种数学处理,支撑着许多现代技术,尤其是人工智能,但它们远远超出了大多数人遇到的基础数学。一个有用的比较是在多个维度上同时旋转、切片或重组魔方所涉及的复杂运动。人类和传统计算机必须将这些步骤分解为一个序列,而光可以同时执行所有这些步骤。

人工智能

在人工智能中,从图像识别到语言理解等任务在很大程度上依赖于张量运算。然而,随着数据量持续增长,GPU 等标准计算硬件在速度、可扩展性和能源使用方面正面临极限。

光如何成为计算器

在对更快、更高效计算的需求的推动下,阿尔托大学电子与纳米工程系光子学组张宇峰博士领导的国际研究团队开发了一种使用单通道光进行复杂张量计算的新方法。该技术能够以实际光速进行单次张量计算。

“我们的方法执行与当今 GPU 处理的相同类型的操作,例如卷积和注意力层,但它们都以光速执行,”张博士说。 “我们不依赖电子电路,而是利用光的物理特性同时执行许多计算。”

被动、高效、集成就绪

自然光子学 DOI:10.1038/s41566-025-01799-7 不错过任何突破:加入 SciTechDaily 时事通讯。 加入 SciTechDaily 时事通讯。 谷歌