详细内容或原文请订阅后点击阅览
DeepMind在ICLR 2023的最新研究
下周是第11届学习代表国际会议(ICLR)的开始,于5月1日至5日在卢旺达的基加利举行。这将是第一次举办在非洲举行的主要人工智能会议,也是自大流行开始以来的第一次面对面活动。来自世界各地的研究人员将聚集在一起,分享他们在AI,统计学和数据科学领域以及机器视觉,游戏和机器人技术等应用领域的深入学习方面的尖端工作。我们很荣幸能以钻石赞助商和DEI冠军来支持会议。
来源:DeepMind - 新闻与博客对可以概括,扩展和加速科学的AI模型的研究
下周是第11届学习代表国际会议(ICLR)的开始,于5月1日至5日在卢旺达的基加利举行。这将是第一次举办在非洲举行的主要人工智能会议,也是自大流行开始以来的第一次面对面活动。
国际学习表征会议来自世界各地的研究人员将聚集在一起,分享他们在AI,统计学和数据科学领域的深入学习方面的尖端工作,以及机器视觉,游戏和机器人技术在内的应用程序。我们很荣幸能以钻石赞助商和DEI冠军来支持会议。
来自DeepMind的团队今年发表了23篇论文。这里有一些亮点:
在通往AGI>的道路上开放问题
最近的进步表明,AI在文本和图像中的表现令人难以置信,但是系统需要更多的研究才能跨越域和尺度。这将是发展人工通用情报(AGI)作为我们日常生活中的变革性工具的关键步骤。
我们提出了一种新方法,其中模型通过解决两个问题来学习。通过培训模型同时从两个角度看一个问题,他们学习了如何推理需要解决类似问题的任务,这对概括有益。我们还通过将神经网络与语言的乔姆斯基层次结构进行比较来探讨神经网络的概括。通过严格测试16个不同任务的2200款模型,我们发现某些模型难以推广,并发现使用外部记忆增强它们对于提高性能至关重要。
通过解决两个问题 神经网络概括 在专家级的长期任务上取得进展