Loading...
机构名称:
¥ 1.0

summary深层生成模型通常用于从复杂的高维分布中生成样品。尽管取得了明显的成功,但其统计特性尚未得到很好的理解。一个常见的假设是,借助足够大的训练数据和足够大的神经网络,深层生成模型样本在从任何连续目标分布中采样时都会有很小的错误。我们建立了一个统一的框架,揭穿了这种信念。我们证明,广泛的深层生成模型(包括变异自动编码器和生成对抗网络)不是通用发生器。在高斯潜在变量的主要情况下,这些模型只能生成浓缩的样品,显示出轻尾。使用来自度量和凸几何浓度的工具,我们为更通用的对数concave和强烈的log-conconcove潜在变量分布提供了类似的结果。我们通过还原参数将结果扩展到扩散模型。,当潜在变量位于带正曲率的歧管上时,我们使用Gromov -levy不等式提供了类似的保证。这些结果阐明了常见的深层生成模型处理重型尾巴的能力有限。我们说明了工作与模拟和财务数据的经验相关性。

深层生成模型的统计能力

深层生成模型的统计能力PDF文件第1页

深层生成模型的统计能力PDF文件第2页

深层生成模型的统计能力PDF文件第3页

深层生成模型的统计能力PDF文件第4页

深层生成模型的统计能力PDF文件第5页

相关文件推荐

2024 年
¥1.0