变分关键词检索结果

复杂与智能系统,第 10 卷,第 4 期,2024 年 8 月

Complex & Intelligent Systems, Volume 10, Issue 4, August 2024

1) 一种用于动作识别的人体骨骼关键帧选择优化方法作者:陈浩,潘悦凯,王晨武页数:4659 - 46732) 城市轨道交通网络短期起讫点流量预测:基于多源大数据的深度学习方法作者:崔红萌,司冰峰……潘伟婷页数:4675 - 46963) 用于社区检测的多约束非负矩阵分解:正交正则稀疏约束非负矩阵分解作者:陈子刚,肖奇……李晓勇页数:4697 - 47124) 使用多层时间图神经网络预测社交媒体网络中的流行趋势作者:金瑞东,刘欣,村田刚页数:4713 - 47295) 受全变分和深度去噪先验启发的混合正则化用于图像恢复作者:Hu Liang, Jiahao Zhang...Jinbo Zhu页数

通过潜在变量镜头进行主成分分析 (PCA)

Principal Components Analysis (PCA) Through a Latent Variable Lens

概述 PPCA(经典 PCA 的扩展)及其通过 EM 算法应用于不完整数据照片由 Dhruv Weaver 在 Unsplash 上拍摄。随着 EM 算法的 E 和 M 步骤重复,该算法收敛到局部最大似然估计量。概率主成分分析 (PPCA) 是一种降维技术,利用潜在变量框架恢复数据中最大方差的方向。当噪声遵循各向同性高斯分布时,概率主成分将与经典主成分紧密相关,在缩放因子和正交旋转方面相同。因此,PPCA 可用于许多与经典 PCA 相同的应用,例如数据可视化和特征提取。PPCA 背后的潜在变量框架还提供了经典 PCA 所不具备的功能。例如,PPCA 可以轻松扩展以适应具有缺失值的数据,而经典

NRL科学家提供量子算法来开发新材料和化学

NRL Scientists Deliver Quantum Algorithm to Develop New Materials and Chemistry

美国海军研究实验室(NRL)科学家在最近的物理审查研究文章中发表了级联的变分量子量化量子算法(CVQE)算法,预计将成为研究电子系统中物理特性的强大工具。

NRL 科学家推出量子算法来开发新材料和化学

NRL Scientists Deliver Quantum Algorithm to Develop New Materials and Chemistry

美国海军研究实验室 (NRL) 的科学家在最近的一篇《物理评论研究》文章中发表了级联变分量子本征求解器 (CVQE) 算法,有望成为研究电子系统物理特性的强大工具。

NRL 科学家推出量子算法来开发新材料和化学

NRL Scientists Deliver Quantum Algorithm to Develop New Materials and Chemistry

美国海军研究实验室 (NRL) 的科学家在最近的一篇《物理评论研究》文章中发表了级联变分量子本征求解器 (CVQE) 算法,有望成为研究电子系统物理特性的强大工具。

无限惊喜 - Kullback-Leibler 散度的彩虹般个性

Infinite surprise - the iridescent personality of Kullback-Leibler divergence

Kullback-Leibler 散度不仅用于训练变分自动编码器或贝叶斯网络(而且不仅仅是一个难以发音的东西)。它是信息论中的一个基本概念,被广泛应用于各种应用中。最有趣的是,它并不总是与约束、正则化或压缩有关。恰恰相反,有时它与新颖性、发现和惊喜有关。

使用 tfprobability 进行高斯过程回归

Gaussian Process Regression with tfprobability

继续我们的 TensorFlow Probability (TFP) 应用之旅,在贝叶斯神经网络、汉密尔顿蒙特卡罗和状态空间模型之后,我们在这里展示了高斯过程回归的一个例子。事实上,我们看到的是一个相当“正常”的 Keras 网络,以非常常见的方式定义和训练,TFP 的变分高斯过程层发挥了所有魔力。

使用 VQ-VAE 和 TensorFlow Probability 进行离散表示学习

Discrete Representation Learning with VQ-VAE and TensorFlow Probability

在考虑变分自动编码器 (VAE) 时,我们通常会将先验描绘为各向同性的高斯。但这绝不是必需的。van den Oord 等人的“神经离散表示学习”中描述的矢量量化变分自动编码器 (VQ-VAE) 具有离散潜在空间,可以学习令人印象深刻的简洁潜在表示。在这篇文章中,我们结合了 Keras、TensorFlow 和 TensorFlow Probability 的元素,看看我们是否可以生成与 Kuzushiji-MNIST 中的字母相似的令人信服的字母。

从 R 开始使用 TensorFlow Probability

Getting started with TensorFlow Probability from R

TensorFlow Probability 提供了广泛的功能,从概率网络层上的分布到概率推理。它与核心 TensorFlow 和 (TensorFlow) Keras 无缝协作。在这篇文章中,我们简要介绍了分布层,然后使用它在变分自动编码器中采样和计算概率。

使用 MMD-VAE 进行表示学习

Representation learning with MMD-VAE

与 GAN 一样,变分自动编码器 (VAE) 通常用于生成图像。然而,VAE 增加了一个额外的承诺:即对底层潜在空间进行建模。在这里,我们首先看一个最大化证据下限的典型实现。然后,我们将其与 Info-VAE(信息最大化 VAE)系列中较新的竞争对手之一 MMD-VAE 进行比较。