摘要:基于脑电数据的情绪识别一直是学术界和工业界的研究热点,为实现和谐的人机交互奠定了坚实的基础。但现有研究大多直接对脑电特征进行分类,或者采用“特征变换+分类”的两阶段范式进行情绪识别。前者通常无法获得理想的效果,而后者则不可避免地打破了特征变换与识别之间的联系。在本文中,我们提出了一个简单而有效的模型——半监督稀疏低秩回归(S3LRR),将判别子空间识别和半监督情绪识别统一在一起。具体而言,S3LRR 通过将最小二乘回归(LSR)中的投影矩阵分解为两个因子矩阵来表示,从而完成判别子空间识别并将子空间脑电数据表征与情绪状态联系起来。在基准SEED_V数据集上的实验研究表明,S3LRR联合学习机制使得情绪识别性能得到较大提升。
摘要:不同会话之间的分布差异极大地降低了视频诱发脑电图 (EEG) 情绪识别的性能。由于 EEG 信号微弱且非平稳,因此存在差异,并且这些差异表现在每个会话的不同轨迹中,甚至表现在属于同一种情绪的某些轨迹中。为此,我们提出了一个耦合投影迁移度量学习 (CPTML) 模型来联合完成域对齐和基于图的度量学习,这是一个统一的框架,可以同时最小化跨会话和跨试验分歧。通过在 SEED_IV 情绪数据集上的实验,我们表明:(1) CPTML 表现出比其他几种方法更好的性能;(2) 在 CPTML 诱导的子空间中,跨会话分布差异被最小化,不同试验之间的情绪度量图得到优化,表明数据对齐和度量探索的有效性; (3)从学习到的投影矩阵中自动识别出用于情绪识别的关键EEG频带和通道,从而对效应的发生提供更多的见解。
基于锚点的大规模多视图聚类因其在处理海量数据集方面的有效性而引起了广泛关注。然而,当前的方法主要通过探索锚点图或投影矩阵之间的全局相关性来寻找用于聚类的共识嵌入特征。在本文中,我们提出了一种简单而有效的可扩展多视图张量聚类(S 2 MVTC)方法,我们的重点是学习视图内和跨视图的嵌入特征的相关性。具体而言,我们首先通过将不同视图的嵌入特征堆叠到张量中并旋转它来构造嵌入特征张量。此外,我们构建了一种新颖的张量低频近似(TLFA)算子,它将图相似性结合到嵌入特征学习中,有效地实现不同视图内嵌入特征的平滑表示。此外,对嵌入特征应用共识约束以确保视图间语义一致性。在六个大规模多视图数据集上的实验结果表明,S 2 MVTC 在聚类性能和 CPU 执行时间方面明显优于最先进的算法,尤其是在处理海量数据时。S 2 MVTC 的代码已公开发布在 https://github.com/longzhen520/S2MVTC。
摘要 — 目的:本文提出了一种基于图信号处理 (GSP) 的方法,通过获取任务特定的判别特征来解码两类运动想象脑电图数据。方法:首先,使用图学习 (GL) 方法从脑电图信号中学习特定于受试者的图。其次,通过对每个受试者图的归一化拉普拉斯矩阵进行对角化,获得正交基,使用该基计算脑电图信号的图傅里叶变换 (GFT)。第三,将 GFT 系数映射到判别子空间,以使用由 Fukunaga-Koontz 变换 (FKT) 获得的投影矩阵区分两类数据。最后,对 SVM 分类器进行训练和测试,以根据所得特征的方差来区分运动想象类别。结果:在 BCI 竞赛 III 的数据集 IVa 上评估所提出的方法,并将其性能与 i) 使用由皮尔逊相关系数构建的图上提取的特征和 ii) 三种最先进的替代方法进行比较。结论:实验结果表明,所提出的方法优于其他方法,反映了整合 GL、GSP 和 FKT 元素的额外优势。意义:所提出的方法和结果强调了整合 EEG 信号的空间和时间特征在提取能够更有力地区分运动想象类别的特征方面的重要性。
脑电信号具有不易伪装、可携带、无侵入等特点,在情绪识别中被广泛应用。然而由于个体差异的存在,不同受试者的同一种情绪状态下的脑电信号数据分布会存在一定的差异。传统的情绪识别方法为了得到对新受试者分类效果良好的模型,需要收集大量新受试者的标记数据,但这往往不现实。本研究针对跨受试者脑电情绪分类提出了一种迁移判别字典对学习(TDDPL)方法。TDDPL方法将不同受试者的数据投影到领域不变子空间中,基于最大均值差异(MMD)策略构建迁移字典对学习。在子空间中,TDDPL学习共享的综合字典和分析字典,搭建从源域(SD)到目标域(TD)的判别知识桥梁。通过最小化每个子字典的重构误差和类间分离项,学习到的合成字典具有判别性,而学习到的低秩编码具有稀疏性。最后,在 TD 中,基于分类器参数、分析字典和投影矩阵构建判别分类器,而无需计算编码系数。在 SEED 和 SEED IV 数据集上验证了 TDDPL 方法的有效性。
摘要:3D对象检测是自动驾驶和机器人技术的一项具有挑战性且有前途的任务,从LIDAR和相机等多传感器融合中受益匪浅。传感器融合的常规方法依赖于投影矩阵来对齐LiDAR和相机的特征。但是,这些方法通常遭受灵活性和鲁棒性不足,从而在复杂的环境条件下导致对齐精度降低。解决这些挑战,在本文中,我们提出了一个新型的双向注意融合模块,该模块名为Bafusion,该模块有效地使用跨注意力从激光雷达和照相机中融合了信息。与常规方法不同,我们的浮雕模块可以自适应地学习跨模式的注意力,从而使方法更加灵活和健壮。从2D Vision中的高级注意优化技术中汲取灵感,我们开发了集合的线性注意融合层(CFLAF层),并将其集成到我们的小管道中。该层优化了注意机制的计算复杂性,并促进了图像和点云数据之间的高级相互作用,展示了一种新的方法来解决跨模式注意计算的挑战。我们使用各种基线网络(例如Pointpillars,Second和A Part-A 2)在KITTI数据集上评估了我们的方法,并在这些基准线上表现出了3D对象检测性能的一致改进,尤其是对于骑自行车的人和骑行者等较小的对象。我们的方法在Kitti基准测试中取得了竞争成果。
脑电图 (EEG) 数据包含复杂的时空结构,可反映大脑活动的持续组织。空间模式表征是众多 EEG 处理流程中不可或缺的步骤。我们提出了一种将 EEG 数据转换为频谱表示的新方法。首先,我们从每个受试者的 EEG 数据中学习特定于受试者的图。其次,通过对每个受试者图的归一化拉普拉斯矩阵进行特征分解,获得正交基,使用该基可以分解受试者的任何给定 EEG 图,从而提供数据的频谱表示。我们表明 EEG 图的能量与学习基的低频分量密切相关,反映了 EEG 图的平滑地形。作为这种 EEG 数据替代视图的概念验证,我们考虑解码两类运动想象 (MI) 数据的任务。为此,首先将频谱表示映射到判别子空间中,以使用由福永-孔茨变换 (FKT) 获得的投影矩阵来区分两类数据。然后对 SVM 分类器进行训练和测试,以根据得到的特征区分 MI 类别。该方法针对从特定于受试者的功能连接矩阵中提取的特征以及 BCI 竞赛 III 的数据集 IVa 上的四种替代 MI 解码方法进行了基准测试。实验结果表明,所提出的方法在区分 MI 类别方面优于其他方法,反映了 (i) 使用数据驱动的、特定于受试者的谐波基分解 EEG 数据,以及 (ii) 考虑类别特定于频谱曲线的时间变化的额外好处。