摘要。目标:分类器传输通常伴随着数据集偏移。为了克服数据集偏移,必须应用在线策略。对于实际应用,必须考虑批量学习算法(如支持向量机 (SVM))的计算资源限制。方法:我们回顾并比较了几种使用 SVM 进行在线学习的策略。我们专注于通过不同的包含、排除和进一步的数据集操作标准来限制存储训练数据大小的数据选择策略。首先,我们对具有不同数据偏移的几个合成数据集上的策略进行了比较。其次,我们分析了使用 EEG 数据的不同传输设置的方法。在处理现实世界数据时,类别不平衡经常发生,例如在奇怪的实验中。这也可能是由数据选择策略本身造成的。我们通过评估两个新的平衡标准来分析这种影响。主要结果:对于不同的数据偏移,不同的标准是合适的。对于合成数据,将所有样本添加到考虑样本池中的表现通常比其他标准差得多。特别是,只添加错误分类的样本表现惊人地好。在这里,当其他标准选择不当时,平衡标准非常重要。对于传输设置,结果表明最佳策略取决于传输期间漂移的强度。添加所有样本并删除最旧的样本可获得最佳性能,而对于较小的漂移,仅添加潜在的 SVM 新支持向量就足够了,从而减少处理资源。意义:对于基于脑电图 (EEG) 模型的脑机接口,使用来自校准会话、先前记录会话甚至来自一个或多个其他受试者的记录会话的数据进行训练。学习模型的这种转移通常会降低性能,因此可以从在线学习中受益,在线学习可以像已建立的 SVM 一样调整分类器。我们表明,通过使用正确的数据选择标准组合,可以调整分类器并大大提高性能。此外,在某些情况下,可以通过使用特殊样本子集进行更新并保留一小部分样本来训练分类器,从而加快处理速度并节省计算量。
主要关键词