使用多个 BCI 任务进行 EEG 解码的联合深度迁移学习
机构名称:
¥ 1.0

摘要 — 深度学习是 BCI 解码的最新技术。然而,它非常耗费数据,训练解码器需要汇集来自多个来源的数据。来自不同来源的 EEG 数据由于负迁移而降低了解码性能 [1]。最近,迁移学习已被建议作为一种补救措施 [2],[3],并成为最近 BCI 竞赛(例如 BEETL [4])的主题,但在组合来自许多受试者的数据时存在两个复杂因素。首先,隐私得不到保护,因为高度个人化的大脑数据需要共享(并在日益严格的信息治理边界上复制)。此外,BCI 数据是从不同来源收集的,通常用于不同的 BCI 任务,这被认为限制了它们的可重用性。在这里,我们展示了一种联邦深度迁移学习技术,即基于我们之前的 SCSN [1] 工作的多数据集联邦分离-公共-分离网络 (MF-SCSN),它将隐私保护属性集成到深度迁移学习中以利用具有不同任务的数据集。该框架使用来自不同图像任务的不同源数据集来训练 BCI 解码器(例如,一些数据集包含手和脚,而另一些数据集包含单手和舌头等)。因此,通过引入隐私保护迁移学习技术,我们释放了现有 BCI 数据集的可重用性和可扩展性。我们在 NeurIPS 2021 BEETL 竞赛 BCI 任务上评估了我们的联合迁移学习方法。所提出的架构比基线解码器高出 3%。此外,与基线和其他迁移学习算法相比,我们的方法保护了来自不同数据中心的大脑数据的隐私。

使用多个 BCI 任务进行 EEG 解码的联合深度迁移学习

使用多个 BCI 任务进行 EEG 解码的联合深度迁移学习PDF文件第1页

使用多个 BCI 任务进行 EEG 解码的联合深度迁移学习PDF文件第2页

使用多个 BCI 任务进行 EEG 解码的联合深度迁移学习PDF文件第3页

使用多个 BCI 任务进行 EEG 解码的联合深度迁移学习PDF文件第4页

相关文件推荐

使用深度学习
2024 年
¥1.0
使用深度学习
2021 年
¥1.0
使用深度学习
2023 年
¥1.0