何文伟博士现为斯坦福大学理论物理研究所博士后学者,研究非平衡量子多体现象和新兴量子技术的应用。此前,他是哈佛大学的摩尔博士后研究员,与 Mikhail Lukin 教授和 Eugene Demler 教授一起工作。从 2022 年 8 月开始,他将担任新加坡国立大学校长青年(助理)教授。何文伟于 2017 年在日内瓦大学师从 Dmitry Abanin 教授获得博士学位,2015 年在滑铁卢大学/圆周研究所师从 Guifre Vidal 教授获得理学硕士学位,2013 年在普林斯顿大学获得学士学位,与 Duncan Haldane 教授一起工作。摘要:普遍性是指复杂系统普遍属性的出现,这些属性不依赖于精确的微观细节。量子热化是强相互作用量子多体系统非平衡动力学的一个例子,其中局部区域随着时间的推移变得由吉布斯集合很好地描述,而该集合仅受少数几个系统参数(例如温度和化学势)控制。局部区域与其补体(“浴”)之间产生的大量纠缠是这种普遍性出现的关键。在这次演讲中,我将介绍一种新的普遍行为,它源于某些类型的量子混沌多体动力学,超越了传统的热化。我将描述单个多体波函数如何编码由小子系统支持的纯态集合,每个纯态都与局部浴的(投影)测量结果相关。然后,我将展示这些量子态的分布如何接近均匀随机量子态的分布,即集合形成量子信息理论中所谓的“量子态设计”。我们的工作为研究量子混沌提供了一个新视角,并在量子多体物理、量子信息和随机矩阵理论之间建立了桥梁。此外,它还提供了一种实用且硬件高效的伪随机态生成方法,为设计量子态层析成像应用和近期量子设备的基准测试开辟了新途径。
基于内核的非线性流形学习,用于基于脑电图的功能连通性分析和渠道选择,并应用于阿尔茨海默氏病Gunawardena,R.,Sarrigiannis,P。G.,Blackburn,D。J.&he,F。出版了PDF,存放在考文垂大学的存储库原始引用:Gunawardena,R,R,Sarrigiannis,PG,Blackburn,DJ&HE,F 2023,'基于内核的非线性流动性学习,用于EEG基于EEG的功能连接分析,并适用于Alzheimer's Disean's Neurosience,Neurosience,vol,vol。523,pp。140-156。 https://dx.doi.org/10.1016/j.neuroscience.2023.05.033 doi 10.1016/j.neuroscience.2023.05.033 ISSN 0306-4522 ESSN ESSN 1873-7544出版商:Elsevier出版商:Elsevier:Elsevier这是CC BID-NC-ND-NC-ND DD( http://creativecommons.org/licenses/by-nc-nd/4.0/)
我们研究了用于计算高斯分布重心的关于最优传输度量的一阶优化算法。尽管目标是测地非凸的,但黎曼 GD 经验上收敛速度很快,实际上比欧几里德 GD 和 SDP 求解器等现成方法更快。这与黎曼 GD 最著名的理论结果形成了鲜明对比,后者与维度呈指数相关。在这项工作中,我们在辅助函数上证明了新的测地凸性结果;这为黎曼 GD 迭代提供了强大的控制,最终产生了无维度的收敛速度。我们的技术还可以分析两个相关的平均概念,即熵正则化的重心和几何中位数,为这些问题的黎曼 GD 提供了第一个收敛保证。
协方差矩阵学习方法因其在非线性数据中捕获有趣的结构的能力而在许多分类任务中变得流行,同时尊重基础对称的对称阳性(SPD)歧管的riemannian几何形状。最近通过学习基于欧几里得的嵌入方式,在分类任务中提出了几种与这些矩阵学习方法相关的深度学习体系结构。在本文中,我们提出了一个新的基于Riemannian的深度学习网络,以为脑电图(EEG)分类生成更具歧视性的特征。我们的关键创新在于学习Riemannian地理空间中每个班级的Riemannian Barycenter。提出的模型将SPD矩阵的分布归一化,并学习每个类的中心,以惩罚矩阵与相应类中心之间的距离。作为一种要求,我们的框架可以进一步减少阶层内距离,扩大学习特征的类间距离,并始终在三个广泛使用的EEG数据集中超过其他最先进的方法,以及来自我们在虚拟现实中的压力诱导的实验中的数据。实验结果证明了由于协方差描述符的鲁棒性以及考虑到riemannian几何形状上的Barycenters的良好有益的核心信号的非平稳性框架的优越性。
本研究的主要目的是调查经典相空间的凯勒几何如何影响从几何量化获得的量子希尔伯特空间的量子信息方面,反之亦然。我们以一种特殊的方式用量子线束将状态与两个积分凯勒流形乘积的子集关联起来。我们证明了当子集是乘积的有限并集时,以这种方式关联的状态是可分离的。我们给出了希尔伯特空间 H 0 ( M 1 , L ⊗ N 1 ) ⊗ H 0 ( M 2 , L ⊗ N 2 ) 上所有纯态平均熵的渐近结果,其中 H 0 ( M j , L ⊗ N j ) 是紧致复流形 M j 上厄米充足线束 L j 的 N 次张量幂的全纯截面空间。这个渐近表达式的系数捕捉了流形的某些拓扑和几何性质。在另一个与量子计算相关的项目中,我们为群 U 3 n ( Z [ 1
摘要 给定流形 V 上的接触结构及其支持的开卷分解,Bourgeois 给出了 V × T 2 上接触结构的显式构造。我们证明所有这样的结构在 5 维上都是普遍紧的,而与原始接触流形本身是紧的还是过度扭曲的无关。在任意维度上,我们提供了 Bourgeois 流形强辛填充的存在性障碍。这给出了一类弱但不强可填充接触 5 流形的新例子,以及所有奇数维中弱但不强可填充接触结构的第一个例子。这些障碍是 S 1 不变接触流形的更一般障碍的特殊例子。我们还得到了任意维度上的分类结果,即 n 环面的单位余切丛具有唯一的辛非球面强填充直到微分同胚。
在这项工作中,我们考虑了发布驻留在黎曼流形上的差分隐私统计摘要的问题。我们提出了拉普拉斯或 K 范数机制的扩展,该机制利用了流形上的固有距离和体积。我们还详细考虑了摘要是驻留在流形上的数据的 Fréchet 平均值的特定情况。我们证明了我们的机制是速率最优的,并且仅取决于流形的维度,而不取决于任何环境空间的维度,同时还展示了忽略流形结构如何降低净化摘要的效用。我们用两个在统计学中特别有趣的例子来说明我们的框架:对称正定矩阵的空间,用于协方差矩阵,以及球面,可用作离散分布建模的空间。
Cheraghian 等人 [ 21 – 23 ] 在零样本 3 维模型分类方 面提出了 3 维点云的零样本学习方法、缓解 3 维零样 本学习中枢纽点问题的方法和基于直推式零样本学 习的 3 维点云分类方法,并将它们封装进一个全新 的零样本 3 维点云方法 [ 24 ] 中。以上方法均是利用已 知类样本的点云表征及其词向量对未知类别进行分 类,开创了零样本 3 维模型分类方法。近年来, CLIP 在零样本图像分类上取得了良好的效果,因此有研 究者将 CLIP 应用到零样本 3 维模型分类方法中, Zhang 等人 [ 25 ] 提出了基于 CLIP 的 3 维点云理解 (Point cloud understanding by CLIP, PointCLIP) 模型, PointCLIP 首先将 3 维点云投影成多个深度图,然 后利用 CLIP 的预训练图像编码器提取深度图特 征,同时将类别名称通过 CLIP 预先训练的文本编 码器提取文本特征。但是 PointCLIP 的性能受到深 度图和图像之间的域差异以及深度分布的多样性限 制。为了解决这一问题,基于图像 - 深度图预训练 CLIP 的点云分类方法 (transfer CLIP to Point cloud classification with image-depth pre-training, CLIP2Point) [ 26 ] 将跨模态学习与模态内学习相结合 训练了一个深度图编码器。在分类时,冻结 CLIP 的图像编码器,使用深度图编码器提取深度图特 征,该方法缓解了深度图和图像间的模型差异。用 于 3 维理解的图像 - 文本 - 点云一致性表征学习方法 (learning Unified representation of Language, Im- age and Point cloud for 3D understanding, ULIP) [ 27 ] 构建了一个图像、文本和点云 3 种模态的 统一嵌入空间,该方法利用大规模图像 - 文本对预 训练的视觉语言模型,并将 3 维点云编码器的特征 空间与预先对齐的视觉 - 文本特征空间对齐,大幅 提高了 3 维模型的识别能力。与之相似的是,基于 提示文本微调的 3 维识别方法 (CLIP Goes 3D, CG3D) [ 28 ] 同样使用 3 元组形式确保同一类别的 3 维模 型特征和图像特征之间以及 3 维模型特征和文本特 征之间存在相似性,从而使点云编码器获得零样本 识别的能力。另外, PointCLIP V2 [ 29 ] 在 Point- CLIP 的基础之上,通过利用更先进的投影算法和 更详细的 3 维模型描述,显着提高了零样本 3 维模型 分类准确率。本文采用语义增强 CLIP 解决图像和文 本的语义鸿沟问题,通过在语义层面为图像和文本 提供更多相似的语义信息,使图像和文本对齐更具有 一致性,从而有效提高 3 维模型的零样本分类性能。 2.2 提示工程
神经活动通常是低维的,并且仅由少数几个突出的神经共变模式主导。有人假设这些共变模式可以形成用于快速灵活运动控制的基石。支持这一想法的是,最近的实验表明,猴子可以在几分钟内学会调整其运动皮层中的神经活动,前提是变化位于原始低维子空间(也称为神经流形)内。然而,这种流形内适应背后的神经机制仍然未知。在这里,我们在计算模型中表明,由学习到的反馈信号驱动的循环权重修改可以解释在流形内和流形外学习之间观察到的行为差异。我们的研究结果提供了一个新的视角,表明循环权重变化不一定会导致神经流形发生变化。相反,成功的学习自然会限制在一个共同的子空间中。