Principal Components Analysis (PCA) Through a Latent Variable Lens
概述 PPCA(经典 PCA 的扩展)及其通过 EM 算法应用于不完整数据照片由 Dhruv Weaver 在 Unsplash 上拍摄。随着 EM 算法的 E 和 M 步骤重复,该算法收敛到局部最大似然估计量。概率主成分分析 (PPCA) 是一种降维技术,利用潜在变量框架恢复数据中最大方差的方向。当噪声遵循各向同性高斯分布时,概率主成分将与经典主成分紧密相关,在缩放因子和正交旋转方面相同。因此,PPCA 可用于许多与经典 PCA 相同的应用,例如数据可视化和特征提取。PPCA 背后的潜在变量框架还提供了经典 PCA 所不具备的功能。例如,PPCA 可以轻松扩展以适应具有缺失值的数据,而经典
Our Understanding of Universe is Built on an Assumption – Cosmological Principle
宇宙学原理是宇宙学的一个基本思想,它指出,尽管存在局部不规则性,但宇宙是均匀的(同质的),从大尺度看,在所有方向上看起来都一样(各向同性)。来源
Discrete Representation Learning with VQ-VAE and TensorFlow Probability
在考虑变分自动编码器 (VAE) 时,我们通常会将先验描绘为各向同性的高斯。但这绝不是必需的。van den Oord 等人的“神经离散表示学习”中描述的矢量量化变分自动编码器 (VQ-VAE) 具有离散潜在空间,可以学习令人印象深刻的简洁潜在表示。在这篇文章中,我们结合了 Keras、TensorFlow 和 TensorFlow Probability 的元素,看看我们是否可以生成与 Kuzushiji-MNIST 中的字母相似的令人信服的字母。