当您拥有大量数据时,一切都很重要

嗯......其实不然!表面上看起来是这样,但那是因为你可能使用了完全不恰当的衡量标准来衡量什么是(统计上)显著的,什么不是。我在之前的一篇文章中谈到了这个问题,我说:“Granger(1998 年、2003 年)提醒我们,如果样本量足够大,那么几乎不可能不拒绝任何假设。因此,如果样本非常大,并且回归模型中估计系数相关的 p 值约为 0.10 甚至 0.05,那么这真是个坏消息。当样本量达到数千甚至更大时,我们需要更小的 p 值,然后我们才会对“统计上显著”的结果感到兴奋。”这个一般性观点,即我们选择的显著性水平应该随着样本量的增加而降低,大多数统计学家和计量经济学家都非常理解。 (例如,参见 Good,1982 年。)然而,基于数千(或更多)个观察样本的实证经济学研究的作者通常会忽略这一点。此外,许多从业者似乎不确定在这种情况下他们应该在多大程度上修改他们的显着性水平(或重新解释他们的 p 值)。这真的没有借口,因为有一些完善的指导方针可以帮助我们。事实上,正如我们将看到的,其中一些至少从 1970 年代就已经存在了。让我们快速看一下,因为它是

来源:Dave Giles的博客

嗯......其实不然!

从表面上看似乎是这样,但那是因为您可能使用了完全不合适的衡量标准来衡量什么是(统计上)重要的,什么不是。

我在

上一篇文章 上一篇文章

中谈到了这个问题,我说:

“Granger (1998, 2003) 提醒我们,如果样本量足够大,那么几乎不可能不拒绝任何假设。因此,如果样本非常大,并且回归模型中估计系数相关的 p 值的数量级为 0.10 甚至 0.05,那么这真的是个坏消息。当样本量达到数千甚至更大时,我们需要更小的 p 值,然后我们才会对‘统计显著’的结果感到兴奋。”
“Granger(1998 年、2003 年)提醒我们,如果样本量足够大,那么几乎不可能不拒绝任何假设。因此,如果样本量非常大,并且回归模型中估计系数的 p 值约为 0.10 甚至 0.05,那么这真是个坏消息。当样本量达到数千甚至更大时,我们需要更小的 p 值,然后我们才会对‘统计显著’的结果感到兴奋。” “Granger ( 1998 2003 ) 提醒我们,如果样本量足够大,那么几乎不可能 拒绝几乎任何假设。因此,如果样本非常大,并且与回归模型中估计系数相关的 p 值的数量级为 0.10 甚至 0.05,那么这真的 消息。当样本量达到数千甚至更大时,我们需要更小的 p 值,然后我们才会对‘统计显著’的结果感到兴奋。”

这个一般性观点,即我们选择的显著性水平应该

降低 在这种情况下,他们应该修改

他们的显著性水平(或重新解释他们的 p 值)的程度。

Deaton

(2018, 第 2 章):

c c 2 c

? (

)

2