我们研究了矩阵博弈的次线性经典算法和量子算法,这是优化和机器学习中的一个基本问题,具有可证明的保证。给定一个矩阵,矩阵博弈的次线性算法以前只知道两种特殊情况:(1)最大化向量位于 L1 范数单位球中,(2)最小化向量位于 L1 或 L2 范数单位球中。我们给出了一个可以在这两种情况之间平滑插值的次线性经典算法:对于 1 到 2 之间的任何固定 q,我们在某些附加误差范围内求解最小化向量位于 Lq 范数单位球中的矩阵博弈。我们还提供了一个相应的次线性量子算法,该算法可以解决同一任务,并且最大化和最小化向量的维度有二次改进。我们的经典算法和量子算法在维度参数上都是最优的,最多可达多对数因子。最后,我们提出了针对近似 Carathéodory 问题的亚线性经典和量子算法以及 Lq-margin 支持向量机作为应用。
摘要 — 独立成分分析是无监督自适应滤波领域的一个难题。最近,人们对使用几何优化进行自适应滤波的兴趣日益浓厚。ICA 算法的性能在很大程度上取决于对比函数的选择以及用于获得分离矩阵的优化算法。本文从优化的角度关注标准线性 ICA 问题。众所周知,经过预白化过程后,可以通过在合适流形上进行优化的方法来解决该问题。我们提出了一种在单位球面上的近似牛顿法来解决单单位 ICA 问题。讨论了局部收敛性质。通过数值实验研究了所提算法的性能。结果表明,著名的 FastICA 算法可以看作是我们算法的一个特例。此外,还讨论了所提算法的一些概括。关键词——几何优化,独立成分分析,FastICA,标量移位策略,局部收敛
神经网络在学习和控制方面表现出了巨大的力量,尤其是在学习动力学和预测动态系统的行为方面[1],[2]。在学习和控制社区近似动态行为时,尤其是稳定性和被动性时,就会有利于稳定性和被动性。执行稳定性可以使学习模型受益,尤其是在概括方面。对于非线性系统,在[3],[4],[5]中使用高斯混合模型和多个数字模型研究了学习过程中的稳定性,甚至在线性系统的情况下,它是非平凡的[6]。对于非线性系统,存在各种稳定概念,其影响不同。在学习的背景下,一个称为Contaction [7](任何一对轨迹相互收敛)的强稳定性概念最近由于其平衡 - 独立的稳定性性质而受到了很多关注。对于离散时间设置,[8],[9],[10]已经开发了收缩,逐渐被动和耗散性神经动力学。在[11]中可以找到连续的时间对应物。[9],[11]的好处是他们的直接(即稳定模型的参数化参数化,使培训变得容易。但是,一个限制是它们在国家独立的二次度量标准方面执行收缩,从而限制了灵活性。用于学习稳定性弱的动态系统(例如,Lyapunov稳定性W.R.T.特定的平衡)通常需要应用保留相似稳定性特性的模型。稳定神经差异方程的关键成分是神经Lyapunov功能。从[12]和佩雷尔曼(Perelman)[13]的庞加罗猜想分辨率,所有lyapunov函数均具有对单位球的同型集合。这建议搜索候选Lyapunov
读出量子位,如图 1a 所示。图 1b-d 表示量子计算机从传统方法演变为可扩展架构。量子位是量子计算机中的基本计算块,由于其叠加和纠缠特性,可实现指数级更快的计算。量子位是一个两级系统,可以处于量子态 j ψ i ,可以表示为其两个计算基态 j 0 i 和 j 1 i 的叠加。这两个状态占据不同的层次,与经典数字逻辑零和一完全类似。量子位的状态有一个独特的注释,即布洛赫球面单位球表面上的一个点。如图 1e 所示,布洛赫球的北极和南极分别代表 j 0 i 和 j 1 i 状态,而布洛赫球表面的所有其他点则对应于不同的叠加态 j ψ i = α j 0 i + β j 1 i 。量子叠加态的振幅与平均占空比信号的经典模拟之间可以进行类比。两个电压电平 VDD 和 GND 在进行占空比和平均后,提供 VDD 和 GND 之间的所有电平,S avg = α VDD + β GND,如图 1f 所示。此外,在读出量子态时,输出要么处于 j 0 i 状态,要么处于 j 1 i 状态。同样,在读出经典模拟中的占空比平均信号时,输出要么为 VDD 要么为 GND。