详细内容或原文请订阅后点击阅览
从评论中提起:拉斐尔·考夫曼(Rafael Kaufmann):雕刻自然:忠实的代表,柏拉图式的梦想和gpt llm mamlms
也许为什么现实的低维秘密使机器如此好模仿我们,而在限制仍然具有令人惊讶的力量和危险的地方,将世界压缩到潜在的空间中。或者,当蛮力...
来源:Brad DeLong也许为什么现实的低维秘密使机器如此好模仿我们,而在限制仍然具有令人惊讶的力量和危险的地方,将世界压缩到潜在的空间中。或者,当蛮力统计数据变得几乎是“智力”时,算法思维中仍然缺少什么……
共享
分享布拉德·德隆(Brad DeLong)的掌握现实
为什么大型语言模型似乎如此擅长预测人类的话语?鉴于他们在语言游戏中如此成功,为什么他们对现实描述如此无能为力。当然,除了他们不对现实描述无能为力的地方使我们感到惊讶。但是,除非您是主题专家,否则您很容易被他们的幻觉所欺骗吗?
拉斐尔·考夫曼(Rafael Kaufmann)的敏锐评论在这里引起了人们的关注,他认为LLM的令人惊讶的功效植根于“忠实代表”的原则,即在某种程度上,在某种程度上,在某种程度上,像柏拉图一样,在某种程度上,在某种程度上可以将少数可延伸的潜在可变化的维度压缩到了柏拉图。真正的现实不是我们试图给出名称的嗡嗡作响的混乱,而是形式的基本逻辑和顺序。他认为,这是科学模型和机器学习算法都可以“起作用”的原因:现实的基本简单性允许有效的压缩,预测和模仿。
,到目前为止,他们在很大程度上失败了。但是他们会成功吗?有一天?很快?
Kaufmann的评论供您考虑,探讨了统计模型如何在我们的单词下找到柏拉图式形式。然而,从相关性到因果关系,从合理的杂语到实际智能见解的飞跃仍然是鸿沟,即使是最聪明的算法也很难穿越。追踪从古代哲学到现代机器学习的血统,我们试图掌握机器的危险和危险,这些机器声称其随机狂欢是真正理解的边缘。
留下评论
: J. Bradford Delong >给予礼物订阅
Rafael Kaufmann