抽象的许多深层生成模型被定义为持续生成器的高斯度量的推动,例如生成的对抗网络(GAN)或变化自动编码器(VAE)。这项工作探讨了这种深层生成模型的潜在空间。这些模型的关键问题是他们在学习断开分布时在目标分布支持之外输出样本的趋势。我们研究了这些模型的性能与它们潜在空间的几何形状之间的关系。基于几何度量理论的最新发展,在潜在空间的尺寸大于模式数量的情况下,我们证明了最佳条件的最佳条件。通过对gan的实验,我们证明了我们的理论结果的有效性,并获得了对这些模型潜在空间几何形状的新见解。此外,我们提出了一种截断方法,该方法在潜在空间中强制执行简单的聚类结构并改善gan的性能。