Understanding Maximum Likelihood Estimation in Supervised Learning
本文在统计学的棱镜下揭开了 ML 学习建模过程的神秘面纱。我们将了解我们对数据的假设如何使我们能够创建有意义的优化问题。
Principal Components Analysis (PCA) Through a Latent Variable Lens
概述 PPCA(经典 PCA 的扩展)及其通过 EM 算法应用于不完整数据照片由 Dhruv Weaver 在 Unsplash 上拍摄。随着 EM 算法的 E 和 M 步骤重复,该算法收敛到局部最大似然估计量。概率主成分分析 (PPCA) 是一种降维技术,利用潜在变量框架恢复数据中最大方差的方向。当噪声遵循各向同性高斯分布时,概率主成分将与经典主成分紧密相关,在缩放因子和正交旋转方面相同。因此,PPCA 可用于许多与经典 PCA 相同的应用,例如数据可视化和特征提取。PPCA 背后的潜在变量框架还提供了经典 PCA 所不具备的功能。例如,PPCA 可以轻松扩展以适应具有缺失值的数据,而经典
Training Diffusion Models with Reinforcement Learning
使用强化学习训练扩散模型replay扩散模型最近已成为生成复杂高维输出的事实标准。您可能知道它们能够制作令人惊叹的 AI 艺术和超逼真的合成图像,但它们也在药物设计和连续控制等其他应用中取得了成功。扩散模型背后的关键思想是将随机噪声迭代地转换为样本,例如图像或蛋白质结构。这通常被激发为最大似然估计问题,其中模型被训练以生成尽可能接近训练数据的样本。然而,扩散模型的大多数用例并不直接与匹配训练数据有关,而是与下游目标有关。我们不只是想要一张看起来像现有图像的图像,而是一张具有特定外观的图像;我们不只是想要一个物理上合理的药物分子,而是想要一个尽可能有效的药物分子。在这篇文章中,我们展示了如何使用
本月我的阅读清单与往常略有不同。我回顾了《计量经济学》和《计量经济学杂志》的往期期刊,并挑选了一些恰好发表在这些期刊 7 月期刊上的重要且有趣的论文。以下是我为您推荐的:Aigner, D.、C. A. K. Lovell 和 P. Schmidt,1977 年。《随机前沿生产函数模型的公式和估计》。《计量经济学杂志》,6,21-37。Chow, G. C.,1960 年。《两个线性回归系数集之间的相等性检验》。《计量经济学》,28,591-605。Davidson, R. 和 J. G. MacKinnon,1984 年。《logit 和 probit 模型的便捷规范检验》。计量经济学杂志,