摘要 — 在本文中,我们提出了一种深度学习框架 TSception,用于从脑电图 (EEG) 中检测情绪。TSception 由时间和空间卷积层组成,可同时学习时间和通道域中的判别表示。时间学习器由多尺度 1D 卷积核组成,其长度与 EEG 信号的采样率有关,可学习多个时间和频率表示。空间学习器利用额叶大脑区域情绪反应的不对称特性来学习来自大脑左半球和右半球的判别表示。在我们的研究中,设计了一个系统来研究沉浸式虚拟现实 (VR) 环境中的情绪唤醒。使用该系统从 18 名健康受试者收集了 EEG 数据,以评估所提出的深度学习网络对低情绪唤醒状态和高情绪唤醒状态进行分类的性能。将所提出的方法与 SVM、EEGNet 和 LSTM 进行了比较。 TSception 实现了 86.03% 的高分类准确率,显著优于之前的方法(p <0.05)。索引词 — 深度学习、卷积神经网络、脑电图、情绪唤醒、虚拟现实
摘要 - 高时间分辨率和不对称空间激活是大脑中脑电图(EEG)的基本属性。为了学习脑电图对准确和普遍的情绪识别的时间动态和空间不对称性,我们提出了Tsception,这是一种多尺度的卷积神经网络,可以从EEG分类情绪。tsception由动态时间,不对称空间和高级融合层组成,它们同时学习时间和通道尺寸。动态时间层由多尺度的1D卷积内核组成,其长度与EEG的采样率有关,EEG学习了EEG的动态时间和频率表示。不对称的空间层利用了情绪的不对称脑电图模式,学习歧视性的全球和半球表示。学习的空间表示将被高级融合层融合。使用更广泛的交叉验证设置,在两个公开可用的数据集DEAP和MAHNOB-HCI上评估了所提出的方法。将所提出的网络的性能与先前报道的方法(例如SVM,KNN,FBFGMDM,FBTSC,无监督学习,DeepConvnet,ShallowConvnet和Eegnet)进行了比较。tsception达到了更高的分类精度和F1评分。这些代码可在以下网址提供:https://github.com/yi-ding-cs/tseption
摘要 — 高时间分辨率和不对称空间激活是脑电图 (EEG) 的基本属性,是大脑情绪过程的基础。为了学习 EEG 的时间动态和空间不对称性以实现准确和广义的情绪识别,我们提出了 TSception,这是一种可以从 EEG 中对情绪进行分类的多尺度卷积神经网络。TSception 由动态时间、不对称空间和高级融合层组成,它们同时学习时间和通道维度中的判别表示。动态时间层由多尺度 1D 卷积核组成,其长度与 EEG 的采样率有关,它学习 EEG 的动态时间和频率表示。不对称空间层利用情绪的不对称 EEG 模式,学习判别性全局和半球表示。学习到的空间表示将由高级融合层融合。使用更通用的交叉验证设置,在两个公开可用的数据集 DEAP 和 MAHNOB-HCI 上评估所提出的方法。将所提出的网络的性能与 SVM、KNN、FBFgMDM、FBTSC、无监督学习、DeepConvNet、ShallowConvNet 和 EEGNet 等先前报告的方法进行了比较。在大多数实验中,TSception 的分类准确率和 F1 分数高于其他方法。代码可在以下位置获得:https://github.com/yi-ding-cs/TSception
摘要— 高时间分辨率和不对称空间激活是脑电图 (EEG) 的基本属性,是大脑情绪过程的基础。为了学习 EEG 的时间动态和空间不对称性以实现准确和广义的情绪识别,我们提出了 TSception,这是一种可以从 EEG 中对情绪进行分类的多尺度卷积神经网络。TSception 由动态时间、不对称空间和高级融合层组成,它们同时学习时间和通道维度中的判别表示。动态时间层由多尺度 1D 卷积核组成,其长度与 EEG 的采样率有关,它学习 EEG 的动态时间和频率表示。不对称空间层利用情绪的不对称 EEG 模式,学习判别性全局和半球表示。学习到的空间表示将由高级融合层融合。使用更通用的交叉验证设置,在两个公开可用的数据集 DEAP 和 MAHNOB-HCI 上评估所提出的方法。将所提出的网络的性能与 SVM、KNN、FBFgMDM、FBTSC、无监督学习、DeepConvNet、ShallowConvNet 和 EEGNet 等先前报告的方法进行了比较。在大多数实验中,TSception 的分类准确率和 F1 分数高于其他方法。代码可在以下位置获得:https://github.com/yi-ding-cs/TSception
摘要 — 神经心理学研究表明,不同大脑功能区域之间的合作活动推动了高级认知过程。为了了解大脑不同功能区域内和之间的大脑活动,我们提出了一种新型神经学启发式图神经网络 LGGNet,用于学习脑机接口 (BCI) 的脑电图 (EEG) 的局部-全局图表示。LGGNet 的输入层由一系列具有多尺度 1D 卷积核和内核级注意力融合的时间卷积组成。它捕获 EEG 的时间动态,然后将其作为所提出的局部和全局图过滤层的输入。LGGNet 使用一组定义的具有神经生理学意义的局部和全局图,对大脑功能区域内和之间的复杂关系进行建模。在稳健的嵌套交叉验证设置下,在三个公开可用的数据集上对四类认知分类任务(即注意力、疲劳、情绪和偏好分类任务)评估了所提出的方法。 LGGNet 与 DeepConvNet、EEGNet、R2G-STNN、TSception、RGNN、AMCNN-DGCN、HRNN 和 GraphNet 等最先进的方法进行了比较。结果表明,LGGNet 的表现优于这些方法,并且在大多数情况下,改进具有统计意义(p < 0.05)。结果表明,将神经科学先验知识引入神经网络设计可以提高分类性能。源代码可以在 https://github.com/yi-ding-cs/LGG 找到
摘要 - 基于EEG的神经网络,医学诊断和脑部计算机界面的关键,由于依赖敏感的神经生理数据和资源密集型发展,面临着重要的知识产权(IP)风险。当前的水印方法,尤其是使用抽象触发器集的方法,缺乏强大的身份验证,并且无法解决EEG模型的独特挑战。本文介绍了针对基于EEG的神经网络量身定制的基于密码的Wonder滤清器水印框架。利用抗碰撞的哈希功能和所有者的私钥,Wonder Filter在训练过程中嵌入了位水印,可确保最小的失真(EEG任务准确性下降5%)和高可靠性(100%水印检测)。该框架是针对对抗性攻击的严格评估,包括微调,转移学习和神经元修剪。的结果表明,即使在积极的修剪后,水印状态的分类准确性仍然超过90%,而主要的任务绩效降低了速度,却阻止了去除尝试的速度。盗版性耐药性通过无法嵌入次级水印而没有严重准确性损失(在EEGNET和CCNN模型中> 10%)来验证。加密散列可确保身份验证,从而降低了蛮力攻击成功概率。在DEAP数据集上进行了跨模型(CCNN,EEGNET,TSEPTION)的评估,该方法达到了> 99。4%的无效剂量准确性,有效地消除了误报。通过将Wonder过滤器与EEG特异性改编整合在一起,这项工作弥合了神经生理模型的IP保护方面的关键差距,为医疗保健和生物识别应用提供了安全的,防篡改的解决方案。该框架针对对抗性修饰的鲁棒性强调了其在维护诊断效用的同时维护敏感的脑电图模型的潜力,从而促进了对AI驱动的生物医学技术的信任。