测试AIS经常失败,人类ACE可以为人工通用情报铺平道路

发现为什么有些难题是Suppersmart AIS,但对于人类来说很容易,这揭示了对真正的人工通用智能的追求,以及为什么视频游戏是下一个边界

来源:科学美国人

有很多方法可以测试人工智能的智能 - 转换的流动性,阅读理解或弯曲心理困难的物理学。但是,一些最有可能陷入困境的测试是人类发现相对容易甚至有趣的测试。尽管AIS越来越多地在需要高水平的人类专业知识的任务上表现出色,但这并不意味着它们即将获得人工通用智能或AGI。 AGI要求AI可以获取很少的信息,并使用它来概括并适应高度新颖的情况。这种能力是人类学习的基础,对AIS仍然具有挑战性。

人工智能 ais agi 对AIS仍然具有挑战性

一个旨在评估AI概括能力的测试是抽象和推理语料库,即:一组微型,有色网格的难题的集合,要求求解器推断出隐藏的规则,然后将其应用于新的网格。它由AI研究员FrançoisChollet于2019年开发,成为ARC奖基金会的基础,ARC奖基金会是一个非营利计划,该计划管理测试,现在是所有主要AI模型都使用的行业基准。该组织还开发了新的测试,并通常使用两个(Arc-Agi-1及其更具挑战性的继任者ARC-AGI-2)。本周,基金会推出了ARC-AGI-3,该ARC-AGI-3是专门为测试AI代理而设计的,并且是基于使它们玩视频游戏的。

美国科学美国人与ARC奖基金会主席,AI研究人员和企业家Greg Kamradt交谈,以了解这些测试如何评估AIS,他们告诉我们的是AGI的潜力以及为什么他们对深度学习模型的挑战,即使许多人倾向于发现它们相对容易。尝试测试的链接在文章的末尾。

科学美国人

支持科学新闻业

订阅

[访谈的编辑笔录。]

访谈的编辑笔录如下。

您如何定义AGI?

尝试