详细内容或原文请订阅后点击阅览
根本的不确定性
2007-2008年的金融危机让外行和经济学家都大吃一惊。我们的宏观经济模型到底出了什么问题,因为它们显然没有预见到崩溃,甚至没有让它变得可想象?许多人试图回答这个问题,提出了一系列解释,从经济学的过度数学化到非理性和腐败的政客。 [...]
来源:Lars P Syll根本的不确定性
2025 年 11 月 12 日 19:07 |发表于 经济学 | 发表评论 经济学 发表评论2007-2008年的金融危机让外行和经济学家都大吃一惊。我们的宏观经济模型到底出了什么问题,因为它们显然没有预见到崩溃,甚至没有让它变得可想象?
许多人试图回答这个问题,并提供了一系列解释,从经济学的过度数学化到非理性和腐败的政客。
但我们问题的根源要深得多。最终取决于我们如何看待我们处理的数据。在“现代”宏观经济学中——动态随机一般均衡、新综合、新古典和新“凯恩斯主义”——变量被视为是从随着时间推移展开的已知“数据生成过程”中提取的,因此我们可以访问大量的历史时间序列。如果我们不假设我们知道“数据生成过程”——如果我们没有“真实”模型——整个结构就会崩溃。当然,它必须如此。我的意思是,谁真的相信我们应该能够获得这个神秘的圣杯,即数据生成过程?
“现代”宏观经济学显然未能预见到不受监管的“高效”金融市场所造成的问题的严重性。为什么?因为它基于这样一个神话:我们知道“数据生成过程”,并且我们可以描述不断发展的经济体的变量,就好像从一个包含已知均值和方差的随机概率函数的瓮中提取变量一样。
这相当于说你要去度假,并且你知道天气晴朗的几率至少为 30%,这足以让你决定是否带墨镜。您应该能够根据给定的晴朗天气概率计算预期效用,并做出简单的非此即彼的决定。不确定性降低为风险。
概率论