摘要:背景:记录脑机接口的校准数据是一个费力的过程,对受试者来说是一种不愉快的体验。域自适应是一种有效的技术,它利用来自源的丰富标记数据来弥补目标数据短缺的问题。然而,大多数先前的方法都需要首先提取脑电信号的特征,这会引发 BCI 分类的另一个挑战,因为样本集较少或目标标签较少。方法:在本文中,我们提出了一种新颖的域自适应框架,称为基于核的黎曼流形域自适应 (KMDA)。KMDA 通过分析脑电图 (EEG) 信号的协方差矩阵来绕过繁琐的特征提取过程。协方差矩阵定义了一个对称正定空间 (SPD),可以用黎曼度量来描述。在 KMDA 中,协方差矩阵在黎曼流形中对齐,然后通过对数欧几里德度量高斯核映射到高维空间,其中子空间学习通过最小化源和目标之间的条件分布距离同时保留目标判别信息来执行。我们还提出了一种将 EEG 试验转换为 2D 帧(E 帧)的方法,以进一步降低协方差描述符的维数。结果:在三个 EEG 数据集上的实验表明,KMDA 在分类准确度方面优于几种最先进的领域自适应方法,BCI 竞赛 IV 数据集 IIa 的平均 Kappa 为 0.56,BCI 竞赛 IV 数据集 IIIa 的平均准确度为 81.56%。此外,使用 E 帧后整体准确度进一步提高了 5.28%。 KMDA 在解决主体依赖性和缩短基于运动想象的脑机接口校准时间方面显示出潜力。
摘要 — 合成数据增强对于机器学习分类至关重要,特别是对于生物数据,因为生物数据往往是高维且稀缺的。机器人控制和增强在残疾人和健全人中的应用仍然主要依赖于针对特定对象的分析。这些分析很少能推广到整个人群,而且似乎使简单的动作识别(例如机器人假肢和操纵器的抓握和释放)过于复杂。我们首次展示了多个 GPT-2 模型可以机器生成合成生物信号(EMG 和 EEG)并改善真实数据分类。仅基于 GPT-2 生成的 EEG 数据训练的模型可以以 74.71% 的准确率对真实 EEG 数据集进行分类,而基于 GPT-2 EMG 数据训练的模型可以以 78.24% 的准确率对真实 EMG 数据进行分类。在对 EEG 和 EMG 模型进行基准测试时,在每个交叉验证折叠中引入合成数据和校准数据。结果表明,使用其中一种或两种附加数据都可以改进算法。随机森林对 EEG 的分类准确率平均为 95.81% (1.46),当在训练期间引入合成的 GPT-2 EEG 信号时,该准确率上升到 96.69% (1.12)。同样,当训练数据通过合成 EMG 信号增强时,随机森林对 EMG 的分类准确率从 93.62% (0.8) 提高到 93.9% (0.59)。此外,正如预测的那样,使用合成生物信号进行增强还会提高训练期间未观察到的新受试者数据的分类准确率。最终使用 Robotiq 2F-85 夹持器进行实时手势控制,合成 EMG 数据增强显著提高了手势识别准确率,从 68.29% 提高到 89.5%。
摘要 — 我们引入了一种改进的增量学习算法,用于进化粒神经网络分类器 (eGNN- C+)。我们使用双边界超框来表示颗粒,并定制自适应程序以增强外框对数据覆盖和噪声抑制的鲁棒性,同时确保内框保持灵活性以捕获漂移。分类器从头开始发展,动态合并新类别,并执行局部增量特征加权。作为一种应用,我们专注于脑电图 (EEG) 信号中与情绪相关的模式的分类。情绪识别对于增强计算机系统的真实感和交互性至关重要。挑战恰恰在于开发高性能算法,能够有效地管理生理数据中的个体差异和非平稳性,而无需依赖特定于受试者的校准数据。我们从 28 名玩电脑游戏的人获得的 EEG 信号的傅里叶频谱中提取特征 - 这是一个公共数据集。每个游戏都会引发不同的主要情绪:无聊、平静、恐惧或快乐。我们分析单个电极、时间窗口长度和频带,以评估由此产生的独立于用户的神经模型的准确性和可解释性。研究结果表明,两个大脑半球都有助于分类,尤其是颞叶 (T8) 和顶叶 (P7) 区域的电极,以及额叶和枕叶电极的贡献。虽然模式可能出现在任何波段中,但 Alpha (8-13Hz)、Delta (1-4Hz) 和 Theta (4-8Hz) 波段按此顺序与情绪类别表现出更高的对应性。eGNN-C+ 证明了学习 EEG 数据的有效性。即使面对高度随机的时变 4 类分类问题,它也能使用 10 秒时间窗口实现 81.7% 的准确率和 0.0029 II 的可解释性。
1 简介 脑机接口 (BCI) 可以实现大脑与外部设备之间的直接通信,为康复和通信提供了巨大的潜力 [1]。尽管基于脑电图 (EEG) 的 BCI 具有如此强大的功能,但目前仍存在信噪比低、特异性不足和域偏移(例如,数据分布的变化)等问题。传统上,通过收集标记校准数据和训练领域特定模型来缓解域偏移 [1]。然而,这种方法资源密集且耗时。作为一种替代方案,无监督域自适应 (UDA) 从标记源域中学习一个模型,该模型可有效执行不同的(但相关的)未标记目标域 [1]。在 BCI 领域,UDA 主要解决会话间和主体间的迁移学习 (TL) 问题 [2],旨在无需监督校准即可实现跨域(即会话和主体)的稳健泛化。在我们之前的工作中,我们开发了一个几何深度学习框架,称为 TSMNet [3],用于对对称正定 (SPD) 流形执行统计对齐。TSMNet 在配备有仿射不变黎曼度量的 SPD 流形上联合学习卷积特征提取器和切线空间映射 (TSM),该度量由于其对潜在源的线性混合具有固有的不变性,非常适合 EEG 数据 [4]。许多 UDA 框架(包括 TSMNet)对齐边际特征分布,隐式假设跨域的标签分布相同。然而,在实践中经常遇到标签偏移,标签偏移下的边际特征对齐会增加泛化误差 [5]。最近的方法将这种对齐问题定义为不平衡的多源和多目标 UDA 问题 [6]。本文介绍了 TSMNet 的扩展,增强了其同时解决特征和标签偏移的能力。为了维护 TSMNet
摘要该论文报告了对射射HALL探针(RHP)磁性诊断系统的系统评估,该诊断系统基于INSB半导体薄膜,并描述了导致创新磁探针概念的建议的路径。在最近的氘 - 帝国实验运动中,RHP操作的相关说明还提供了,显示了在类似Iter的强烈中子通量下正确的操作。对RHP系统进行系统评估的期间范围从2009年10月到2021年3月,在此期间,该机器产生了超过19,000个脉冲。RHP系统由六个三维大厅探针组成,这些探针具有内置的重新校准能力,这要归功于在量身定制的自动预脉冲预校准序列中产生局部已知场的微糖苷,也可以手动启动。在脉冲过程中,当记录其信号时,微苯酚也可以用作电感传感器。此外,该系统在探针位置提供了温度测量值,这些温度也被连续记录。评估证明了RHP系统的准确长期操作。所有诊断通道可靠地提供脉冲预校准数据和脉冲信号,并且保留了霍尔传感器的原始灵敏度。混合探针有望提供感应和霍尔传感技术的优势,本质上是单个ITER磁性离散探针的相同包装大小。,它将解决积分器漂移的问题,以解决持久的燃烧等离子体排放。集成考虑和数据融合分析导致提出高性能,紧凑,宽带,混合场探针,由电感线圈和HALL传感器组合组成,由为迭代或替代性概念开发的线圈技术制造,并具有改善的辐射热度。通过Luenberger-Kalman观察者处理的线圈和霍尔传感器产生的信号提供了一个磁场测量值,该测量值是不钻孔和低噪声的。由于这些原因,已提出混合探针作为未来燃烧的血浆实验和示范融合发电厂的潜在主要磁性诊断传感器。
不同类型的环境干扰以及量子计算机本身控制中的噪声。环境变化或设备本身的变化都会影响 NISQ 计算机的可靠性和运行。为了让用户可以使用这些 NISQ 量子计算机,越来越多的公司将它们部署为基于云的加速器。如今,公共云基础设施已经允许按需轻松访问来自不同制造商的各种量子计算机。IBM Quantum [6]、Amazon Bracket [1] 和 Microsoft Azure [12] 等基于云的服务是为用户提供超导量子计算机远程访问的服务之一。虽然用户可以借助基于云的服务轻松访问设备,但他们无法控制物理设备及其环境。对于想要使用硬件的用户来说,了解硬件的运行以及硬件中的任何物理或环境变化至关重要。通过分析 IBM Quantum 的真实量子计算机历史校准数据 [ 6 ],我们证明 IBM Quantum 提供的计算机会经历许多事件,例如量子比特频率发生突变或频率在一段时间内波动。频率本身的变化并不重要。但是,它们可以用作机器环境或物理变化的指标。这些变化反过来又可以与其他属性的变化(如门错误)相关联。通过跟踪量子比特频率的变化,用户可以使用显著的频率变化事件作为重新优化算法的触发器。此外,众所周知,超导量子比特设备对温度变化很敏感。频率变化可以指示用于容纳超导量子比特设备的低温制冷机的热循环。因此,跟踪量子比特频率变化可用于检测物理变化或对机器的篡改。因此,我们研究的一个关键结论是,为了充分描述量子计算机的行为,用户需要了解和跟踪传统指标之外的属性,例如量子比特退相干时间和门错误率。此外,通过历史设备数据,我们分析了不同设备之间的设备离线时间如何关联以及它们如何与频率变化相关联。我们发现了一些相关性,其中许多设备往往同时处于离线状态,这表明它们可能共享冷却、控制或其他基础设施。共享基础设施可能是一个潜在的故障点,希望在 NISQ 量子计算机上可靠地执行程序的用户可能希望避免使用可能共享全部或部分相同基础设施的机器。另一方面,我们还发现,许多频率变化事件与设备可能离线的时间段无关,这表明存在未知且未公开的原因
1 范围 本报告履行了 iMERA Plus 项目新工业计量技术 (NIMTech) 的交付成果 D3.7 - 多传感器网络验证实验评估报告。本报告描述了基于 NIMTech 交付成果报告 D3.1(1) 中描述的多传感器网络方法的激光跟踪器对准误差校准程序的验证。2 简介 NIMTech 交付成果报告 D3.1(1) [1] 描述了使用多传感器网络测量方法校准激光跟踪器对准误差的实验程序。在本报告中,我们介绍了该程序的实验验证,从而验证了多传感器网络方法。激光跟踪器校准的网络方法涉及使用激光跟踪器测量多个固定点的坐标。从几个不同的位置测量相同的点。然后通过使用最小二乘参数估计法拟合描述实验设置(跟踪器位置和方向、目标位置)和激光跟踪器误差的数学模型来处理这些测量的结果。为了验证这种方法,使用网络方法获得的校正参数根据 ASME B89.4.19 标准验证了 API T3 激光跟踪器的性能,并将这些结果与使用制造商的校准数据执行的类似 ASME B89.4.19 测试进行了比较。描述用于这项工作的激光跟踪器对准误差的模型 [2] 是从之前描述的 1,3 改编为更通用的形式。第 3 节简要介绍了新模型。第 4 节包含从网络测试获得的结果,第 5 节简要描述了 ASME B89 测试和获得的结果。3 激光跟踪器误差模型 3.1 激光跟踪器错位 理想的激光跟踪器(基于“经纬仪式”设计,干涉仪位于万向架上)可以通过图 1(左)中的设置示意性表示。竖轴和经轴正交且共面,激光束在中心点与两个轴相交并向外辐射,没有角度偏移。此外,仰角和方位角编码器完美地居中并垂直于经轴和竖轴,没有失真或比例误差。实际上,由于制造公差,所有激光跟踪器都可能出现错位和偏移以及其他机械缺陷。因此,更现实的几何形状类似于图 1(右)中所示的几何形状。基准轴、经线轴和激光束轴不再正交和相交;两个角度编码器都有刻度误差和失真;激光束不从轴的交点辐射,并且具有角度偏移,因此它不再垂直于经线轴。这些机械缺陷会导致范围和角度读数中的系统误差,如果不加以纠正,将导致测量误差。在实践中,激光跟踪器控制器对原始传感器数据进行软件校正,为用户提供准确的测量数据。该校正基于误差源模型和存储在控制器中的模型参数测量结果。本实验中测试的校准程序的目的是确定模型的参数及其相关的不确定性。