提升/交叉点:理查德·萨顿:苦涩的课

2019年计算能力的注释:重新审视萨顿在GPT MAMLMS时代的痛苦教训,这证明了比Sutton在地区敢于想象的更真实的痛苦课程...

来源:Brad DeLong

您想对世​​界进行细节进行分类的信息或图案或事物,以便您可以评估并采取行动。这是一个很大的世界 - 一个非常大的数据世界。而且,您希望以多种不同的方式分组其功能 - 非常高维的分析。此外,一些小的差异使评估和行动有重要差异,而其他大差异也没有 - 经误功能分析。另外,有可能对系统进行大规模的大面积模拟作为探索问题空间的一种方式:通过“自我游戏”来改进计算机国际象棋和播放模式中显示的是什么,构建了在现实生活中从未见过的情况发生的新数据,但可能已经发生过。

已有70年了,许多“ AI”的飞跃来自拥抱规模,而不是在人类的理解中烘烤。萨顿的洞察力 - 尖锐的加上一般方法 - 保持胜利。但是在什么问题空间边界的边界内?识别边界和设计工具的工具可能会产生新的和不同的痛苦课程。

的确,很多事情都挂在我们解决此类问题的良好答案上。

Rich Sutton(2019):痛苦的课程:‘可以从70年的AI研究中读取的最大教训是,杠杆计算的一般方法最终是最终有效的,并且是最终的,并且是较大的边缘。造成这种情况的最终原因是摩尔定律,或者是对每单位计算成本持续下降成本的概括。

Rich Sutton (2019):痛苦的课 http://www.incompleteideas.net/incideas/bitterlesson.html

有很多例子是AI研究人员对这一痛苦的教训的迟来学习,并且有启发性地回顾一些最突出的教训:

痛苦的教训是基于:

1)AI研究人员经常试图将知识建立到其代理商中,