AI正在学习改善自己的五种方式

上周,马克·扎克伯格(Mark Zuckerberg)宣布,梅塔(Meta)的目标是实现比人类更聪明的人AI。他似乎有一个实现这一目标的秘诀,第一种成分是人才:据报道,扎克伯格试图通过9位数字的优惠吸引顶级研究人员进入Meta超级智能实验室。第二个成分是AI本身。扎克伯格最近在…

来源:MIT Technology Review _人工智能

这就是Mirhoseini一直在使用AI优化AI芯片的原因。早在2021年,她和她在Google的合作者就建立了一个非LLM AI系统,该系统可以决定将各个组件放在计算机芯片上以优化效率。尽管其他一些研究人员未能复制该研究的结果,但米尔霍西尼说,大自然研究了该论文并维持了作品的有效性,她指出Google已经使用了该系统的设计,该设计的定制AI芯片是多代的。

non-llm AI系统 无法复制 自然

最近,Mirhoseini已将LLMS应用于编写内核的问题,低级功能,这些功能控制了如何在芯片中进行各种操作(例如矩阵乘法)。她发现,即使是通用LLM,在某些情况下也可以写出比人类设计的版本更快的内核。

运行速度更快

在Google的其他地方,科学家建立了一个系统,用于优化公司LLM基础架构的各个部分。该系统称为Alphaevolve,提示Google的Gemini LLM编写用于解决一些问题,评估这些算法的算法,并要求Gemini在最成功的最成功方面进行改进,并多次重复该过程。 Alphaevolve设计了一种新方法,用于运行数据中心,该方法节省了Google的计算资源的0.7%,对Google的自定义芯片设计进行了进一步的改进,并设计了一种新的内核,使Gemini的培训加剧了1%。

alphaevolve

听起来可能像是一个很小的进步,但是在像Google这样的庞大公司中,它等同于大量的时间,金钱和能量。 Google DeepMind的员工研究科学家Matej Balog领导了Alphaevolve项目,他说,他和他的团队仅针对Gemini整体培训管道的一小部分测试了该系统。他说,更广泛地应用它可能会带来更多的节省。

3。自动培训

技术

4。完善代理设计