了解过度参数化模型的成功似乎具有挑战性。部分,由于该过程的违反直觉。共同的智慧表明,在学习中,必须对问题的问题有一定的良好偏见,并且在学习时,我们需要将自己限制在不能过分贴上数据的模型类别中。这种直觉是通过经典学习模型(例如PAC LearningValiant [1984]以及回归Alon等人的理由证明的。[1997]。在这些古典模型中,甚至可以证明Vapnik和Chervonenkis [2015],Blumer等。[1989],学习需要比学习类别的能力更多的示例,并且避免插值对于概括是必要的。这些结果是在与分布无关的设置中获得的,其中人们假定数据上的最差分布。
在本文中,我们重点研究形式为 f ◦ G = f ( G ( X 1 , Y 1 ), . . . , G ( X n , Y n )) 的函数的量子通信复杂度,其中 f : { 0 , 1 } n →{ 0 , 1 } 是对称函数,G : { 0 , 1 } j × { 0 , 1 } k →{ 0 , 1 } 是任意函数,并且给定 Alice (或 Bob) ( X i ) i ∈ [ n ] (或 ( Y i ) i ∈ [ n ])。最近,Chakraborty 等人。 [STACS 2022] 证明,当允许双方使用共享纠缠时,f ◦ G 的量子通信复杂度为 O ( Q ( f )QCC E ( G )),其中 Q ( f ) 是 f 的查询复杂度,QCC E ( G ) 是 G 的精确通信复杂度。在本文中,我们首先证明相同的陈述在没有共享纠缠和共享随机性的情况下成立,这推广了他们的结果。基于改进的结果,我们接下来在两个模型中证明任何对称函数 f (其中 AND 2 : { 0 , 1 } × { 0 , 1 } →{ 0 , 1 } 表示 2 位 AND 函数) 的 f ◦ AND 2 的严格上界:具有共享纠缠和不具有共享纠缠。这与 Razborov [Izv. Math. 67(1) 145, 2003]当允许共享纠缠时,我们改进了Razborov的界限,当不允许共享纠缠时。
2 | ⟨ ψ | [ A, B ] | ψ ⟩| 取决于初始状态,因此并不固定,以至于当 | ψ ⟩ 的某些选择时它会消失,这些选择不必是可观测量 A 和 B 的同时特征函数。此外,基于偏差的不确定性关系通常不能捕捉可观测量互补方面 [12] 的物理内容和信息内容的传播 [13]。用可观测量的熵来表示不确定性最早是由 Everett [17] 提出的。参考文献 [14] 对此进行了肯定的回答,即位置和动量可观测量的熵之和满足不等式。对于具有连续谱的可观测量,这种熵不确定关系分别在参考文献 [15, 16] 中得到证明和改进。当系统状态为高斯波包时,不等式的下界成立。熵不确定性关系在有限维希尔伯特空间中的可观测量的扩展最早在文献[11]中提出,后来在文献[18]中得到改进。我们希望