更大时关键词检索结果

automl的阴影侧:当无代码工具造成的伤害超过帮助

The Shadow Side of AutoML: When No-Code Tools Hurt More Than Help

抽象在软件中并不是什么新鲜事物,但是在机器学习中,没有监督的抽象将自动化变成建筑风险。帖子的阴影一面:当无代码工具的痛苦比首先迈向数据科学的帮助更大时。

当您拥有大量数据时,一切都很重要

Everything's Significant When You Have Lots of Data

嗯......其实不然!表面上看起来是这样,但那是因为你可能使用了完全不恰当的衡量标准来衡量什么是(统计上)显著的,什么不是。我在之前的一篇文章中谈到了这个问题,我说:“Granger(1998 年、2003 年)提醒我们,如果样本量足够大,那么几乎不可能不拒绝任何假设。因此,如果样本非常大,并且回归模型中估计系数相关的 p 值约为 0.10 甚至 0.05,那么这真是个坏消息。当样本量达到数千甚至更大时,我们需要更小的 p 值,然后我们才会对“统计上显著”的结果感到兴奋。”这个一般性观点,即我们选择的显著性水平应该随着样本量的增加而降低,大多数统计学家和计量经济学家都非常理解。 (例如,参见