摘要:网络分析方法在其他领域(如系统神经科学)中无处不在,最近已用于测试心理学中的网络理论,包括智力研究。智力的网络或互利共生理论提出,认知能力(例如词汇或记忆等特定能力)之间的统计关联源于它们在整个发展过程中的因果关系。在本研究中,我们使用认知能力和大脑结构协方差(灰质和白质)的网络模型(特别是 LASSO)来同时模拟大脑-行为关系,这些关系对于一个大型(行为,N = 805;皮质体积,N = 246;分数各向异性,N = 165)发育期(年龄 5-18)学习困难者群体(CALM)的一般智力至关重要。我们发现,我们的认知、神经和多层网络中普遍存在着大多数正向、小范围的偏相关。此外,通过利用社区检测(Walktrap 算法)和计算节点中心性(绝对强度和桥接强度),我们发现了趋同证据,表明认知和神经节点的子集在大脑和行为之间起着中介作用。我们讨论了未来研究的意义和可能途径。
摘要 — 提出了一种基于测量变化特性和稳定性的神经网络训练新框架。该框架具有许多有用的属性,可以最大限度地利用数据,并以原则性的方式帮助解释结果。这是通过方差稳定和随后的标准化步骤实现的。该方法是一种通用方法,可用于任何有重复性数据的情况。以这种方式进行标准化可以量化拟合优度,并从统计角度解释测量数据。我们展示了该框架在先进制造数据分析中的实用性。索引词 — 方差稳定、神经网络、多层感知器、简化卡方、自由度卡方、金属增材制造在本文中,采用神经网络作为广义回归量,研究金属增材制造 (AM) 工艺参数与 IN718 超级合金的熔池几何特性之间的关系。本文以用例的形式介绍了增材制造数据的分析,但框架本身是通用的,可用于任何有可重复性数据的方法。增材制造是一种逐层构建组件的 3D 打印工艺;熔池是熔融原料和基材的体积。了解材料与熔池之间的潜在物理原理和关系是工艺优化的关键,然而现场测量的机会有限,因此缺乏对基本工艺的理解。使用神经网络分析先进制造工艺数据特别困难,因为收集高质量数据成本高、流程复杂且需要精心规划。这通常会导致数据集样本数量较少 [1]、[2],需要系统的方法来帮助进行可靠的解释。
转录组关联研究 (TWAS) 已广泛用于整合转录组和遗传数据来研究复杂的人类疾病。在缺少转录组数据的测试数据集中,传统的两阶段 TWAS 方法首先通过创建加权和来估算基因表达,该加权和将 SNP 与其相应的顺式 eQTL 对参考转录组的影响聚合在一起。然后,传统 TWAS 方法采用线性回归模型来评估估算基因表达与测试表型之间的关联,从而假设顺式 eQTL SNP 对测试表型的影响是 eQTL 对参考转录组的估计影响的线性函数。为了提高 TWAS 对这一假设的稳健性,我们提出了一种新颖的方差分量 TWAS 程序 (VC-TWAS),该程序假设顺式 eQTL SNP 对表型的影响是随机的(方差与相应的参考顺式 eQTL 效应成比例)而不是固定的。 VC-TWAS 适用于连续和二分表型,以及个体层面和汇总层面的 GWAS 数据。使用模拟数据,我们表明 VC-TWAS 比基于两阶段负担检验的传统 TWAS 方法更强大,尤其是当 eQTL 遗传效应对测试表型不再是其 eQTL 遗传效应对参考转录组的线性函数时。我们进一步将 VC-TWAS 应用于个体层面(N = ~3.4K)和汇总层面(N = ~54K)的 GWAS 数据来研究阿尔茨海默病 (AD)。利用个体层面的数据,我们检测到了 13 个显著的风险基因,包括 6 个已知的 GWAS 风险基因,例如 TOMM40,而传统 TWAS 方法却遗漏了这些基因。利用汇总级数据,我们检测到 57 个仅考虑顺式 SNP 的显著风险基因和 71 个同时考虑顺式和反式 SNP 的显著风险基因,这也通过个体级 GWAS 数据验证了我们的发现。我们的 VC-TWAS 方法已在 TIGAR 工具中实现,供公众使用。
深度学习(DL)培训算法利用非确定性来提高模型的准确性和训练效率。因此,多个相同的培训运行(例如,相同的培训数据,算法和网络)产生了具有不同准确性和训练时间的不同模型。除了这些算法因素外,由于并行性,优化和浮点计算,dl libraries(例如Tensorflow和Cudnn)还引入了其他方差(称为实现级别差异)。这项工作是第一个研究DL系统差异以及研究人员和实践中这种差异的认识的工作。我们在三个具有六个流行网络的数据集上进行的实验显示了相同的培训运行中的总体准确性差异。即使排除了弱模型,精度差也为10.8%。此外,仅实施级别的因素会导致相同培训运行的准确性差异高达2.9%,每类准确性差异高达52.4%,训练时间差为145.3%。所有核心库(Tensorflow,CNTK和Theano)和低级库(例如Cudnn)在所有评估版本中均显示实现级别的差异。我们的研究人员和从业人员的调查显示,有83.8%的901名参与者不知道或不确定任何实施级别差异。此外,我们的文献调查显示,最近顶级软件工程(SE),人工智能(AI)和系统会议中,只有19.5±3%的论文使用多个相同的培训运行来量化其DL AP-ap-paraches的方差。本文提高了对DL差异的认识,并指导SE研究人员执行诸如创建确定DL实现之类的挑战任务,以促进调试和提高DL软件和结果的可重复性。
在经典测量中,观察通过揭示系统被认为是预先存在的、独立于观察的属性来消除我们对状态的无知。香农信息是量化经典系统所携带信息量的理想度量。它也是我们对经典系统属性的无知的自然度量。然而,对于量子测量,情况则大不相同,因为不能说量子测量揭示了量子系统的预先存在的属性。因此,香农熵在量子物理学中可以被认为是概念上的不足。布鲁克纳和泽林格引入了一个量作为总信息的新度量,该量是通过对一组完整的相互补充的测量中的单个测量求和而获得的[1,2]。这种量子信息度量考虑到在测量之前已知的量子系统的唯一特征是各种事件发生的概率。这个量可以表示为
一位经济学家收集了去年生产电子计算设备的公司样本的生产率改进数据。这些公司根据过去三年的平均研发支出水平进行分类(低、中、高)。研究结果如下(生产率改进的衡量标准为 0 到 100)。假设具有通常假设的方差分析模型是合适的。
摘要 自动建筑物提取最近被认为是遥感操作中的一项活跃研究。它已经进行了 20 多年,但由于图像分辨率、变化和细节级别,自动提取仍然遇到问题。由于物体密度高和场景复杂,这将是一个更大的挑战,尤其是在城市地区。本文将介绍一个高分辨率全色图像的理想框架,有助于可靠和准确的建筑物提取操作。提出的框架以及对领域知识(空间和光谱特性)的考虑提供了诸如场景中物体的性质、它们的光学相互作用及其对结果图像的影响等特征。为了更好地分析场景的几何性质,我们使用数字表面模型 (DSM)。已使用来自 IKONOS 和 QuickBird 卫星的各种图像对提出的算法进行了评估。结果表明,与最先进的方法相比,所提出的算法准确且有效。
本文研究了多个气候模型误差之间的互相关。我们构建了一个贝叶斯分层模型,该模型解释了各个模型的空间依赖性以及跨不同气候模型的跨构成。我们的方法允许具有不可分割的和非稳定的交叉协方差结构。我们还提出了一种协方差近似方法,以促进非常大的多元空间数据集建模和分析中的计算。协方差近似组成的两个部分:一个减少的秩部分以捕获大规模的空间依赖性,以及稀疏的协方差矩阵,以纠正由降低级别近似所引起的小规模依赖误差。我们特别注意近似值的第二部分具有块对基结构。模型拟合和预测的仿真结果表明,在预测过程近似和独立块分析中,提出的近似值的取代。然后,我们将综合方法应用于多个气候模型错误的联合统计建模。