每周简报:2024-07-10 我们
很难说 r* 已经上升,或者 r* 对稳定政策无关紧要;François Chollet 对 MAMLM 的看法与我的婴儿理解不同,只是成人版;非常简短...
来源:Brad DeLong很难说 r* 上升了,或者 r* 对稳定政策并不重要;François Chollet 对我的婴儿理解 MAMLM 的看法有一个成人版本;非常简短的说明;我的纽约时报马斯克文章来自付费墙后面;1870 年之前马尔萨斯魔鬼来了,但可能要 500 年才会来;& 2024-07-05 Fr 每周简要说明……
很难说 r* 上升了,或者 r* 对稳定政策并不重要;François Chollet 对我的婴儿理解 MAMLM 的看法有一个成人版本;非常简短的说明;我的 纽约时报 马斯克文章来自付费墙后面;1870 年之前马尔萨斯魔鬼来了,但可能要 500 年才会来; & 2024-07-05 周五每周简报… 约翰·威廉姆斯 < https://www.bis.org/review/r240703f.htm > < https://www.newyorkfed.org/research/policy/rstar > < https://www.newyorkfed.org/medialibrary/media/newsevents/speeches/2024/jcwilliams-ecbforum-070324-slides.pdf#page=3 > < https://www.newyorkfed.org/newsevents/speeches/2024/wil240703 >分享
分享 分享François Chollet 对 GPTLLM 所做之事的解释似乎非常接近我的神经网络,其权重是一种非常灵活的函数,用于将输入映射到输出,在构建输入页面的向量空间表示和相关相似性分组时,需要非常复杂的魔法,然后使用它们来插入输出。这样的事情不是“思考”。但是,我们的大脑就像神经网络一样。那么,我们的大脑在做什么,这就是“思考”?除非你想声称我们自己的神经网络的达尔文算法设计中还涉及额外的魔法——如果是这样,那是什么?——我们这里有一个非常糟糕的足够数量变成质量不同的出现问题,不是吗?强烈推荐:
Sean Carroll https://www.preposterousuniverse.com/podcast/2024/06/24/280-francois-chollet-on-deep-learning-and-the-meaning-of-intelligence/ > 中观经济学 : : > : >