详细内容或原文请订阅后点击阅览
来自社区 |人工智能又给我们上了惨痛的一课
Ben Gau '25 要求我们重新考虑如何有效地使用人工智能,认为需要优先考虑以人为本的设计。来自社区的帖子 |人工智能给我们带来了另一个惨痛的教训,该教训首先出现在《斯坦福日报》上。
来源:斯坦福大学日报当 GPT-4 首次登上基准排行榜榜首时,人工智能社区庆祝了能力的新里程碑。然而,人们似乎一直在使用基础 GPT-3.5 来三次检查他们的电子邮件是否有拼写错误。当 Claude 3 Opus 作为最强大的模型推出时,华尔街因未来生产力提高的承诺而飙升。但世界各地的学生似乎都坚持使用克劳德更便宜、更快的十四行诗来在考试前进行恐慌学习。
一次又一次,我们发现纸面上的“最佳”模型并不总是被普通人最广泛采用,也无法提供其基准性能所暗示的变革价值。
这一观察指出了我们对人工智能进步的看法存在根本性的矛盾。 2019 年,强化学习之父 Rich Sutton 撰写了《痛苦的教训》。他认为,利用计算和数据的通用方法最终优于基于人类理解和判断的方法。他是对的,现代比例定律证明,仅靠比例就可以产生令人难以置信的定性结果。但是,还有另一个惨痛的教训正在出现:在开发如此强大的人工智能模型时,那些被计算和数据所取代的人类品质恰恰是推动现实世界持久采用和有意义的变革所需要的。
我们倾向于将基础模型视为新事物,但历史提供了令人惊讶的教训,说明哪些基础框架实际上一直存在。从广义上讲,基础模型是一个连贯的解释框架,指导人们如何理解世界并在其中采取行动。希腊几何宇宙、古代宗教教义、盖伦医学:这些都是当时的顶级基础模型,为整个社会提供了系统的方法来对现实进行推理并做出明智的决定。
在这两种情况下,建立在更好的数据和更严格的方法之上的更准确的基础模型最终都输给了那些更容易为普通人所理解的模型。
