摘要:准确预测剩余使用寿命(RUL)是保证锂离子电池安全稳定性的关键功能。为解决不同工况下的容量再生和模型适应性,提出了一种基于带自适应噪声的完全集合经验模态分解(CEEMDAN)和双向门控循环单元(BiGRU)的混合RUL预测模型。利用CEEMDAN将容量划分为固有模态函数(IMF)以降低容量再生的影响。此外,提出一种改进的灰狼优化器(IGOW)来保持BiGRU网络的可靠性。利用混沌帐篷映射提高GWO算法中初始种群的多样性,采用改进的控制因子和动态种群权重来加速算法的收敛速度。最后,进行容量和RUL预测实验,验证不同训练数据和工况下的电池预测性能。结果表明,所提出的方法仅使用 30% 的训练集即可实现小于 4% 的 MAE,并使用 CALCE 和 NASA 电池数据进行了验证。
摘要:这项研究旨在通过整合综合少数群体过度采样技术(SMOTE)-TOMEK技术来开发一种健壮的糖尿病分类方法,用于数据平衡并使我们以极端梯度增强(XGB)为导致的机器学习合奏作为元学习者。我们提出了一个集成模型,该模型将深度学习技术(例如双向长期记忆(Bilstm)和双向门控复发单元(BIGRU)与XGB分类器作为基础学习者。使用的数据包括PIMA印第安人糖尿病和伊拉克社会糖尿病数据集,这些数据集是通过缺少价值处理,重复,归一化以及Smote-Tomek在解决数据失衡方面处理的。XGB作为元学习者,通过降低偏差和方差成功地提高了模型的预测能力,从而导致了更准确,更健壮的分类。所提出的合奏模型可在所有测试的数据集上达到完美的精度,精度,召回,特异性和F1分数为100%。此方法表明,将集成学习技术与严格的预处理方法结合在一起可以显着改善糖尿病分类性能。
基于忆阻器的神经形态计算在高速、高吞吐量信号处理应用(如脑电图 (EEG) 信号处理)中显示出巨大潜力。尽管如此,单晶体管单电阻 (1T1R) 忆阻器阵列的大小受到器件非理想性的限制,这阻碍了大型复杂网络的硬件实现。在本文中,我们提出了深度可分离卷积和双向门循环单元 (DSC-BiGRU) 网络,这是一种基于 1T1R 阵列的轻量级且高度稳健的混合神经网络,通过混合 DSC 和 BiGRU 块,能够在时间、频率和空间域中有效处理 EEG 信号。在确保网络分类准确性的同时,网络规模减小了,网络稳健性提高了。在模拟中,通过统计分析将测得的 1T1R 阵列的非理想性带入网络中。与传统卷积网络相比,在阵列成品率95%、容错率5%的条件下,网络参数减少了95%,网络分类准确率提高了21%。该工作表明,基于忆阻器阵列的轻量级、高鲁棒网络对于依赖低消耗和高效率的应用具有巨大的前景。
摘要。为了提高智能语音互动机器人的准确性,作者提出了一种基于深度学习的研究意图识别方法。通过介绍GloveBibgru自己的注意分类预测模型,构建了意图识别功能模块,并采用ROS分布式体系结构来整合系统功能模块,从而实现了人与机器之间的智能语音交互。模拟结果表明,使用该方法的语音意图识别具有更高的精度。与基于DCNN模型,CNN-LSTM模型和GRU自我注意力模型的意图识别方法相比,识别精度高于8。02%,4。06%和2。分别为13%,并且在特征提取方面具有更好的识别效果,与基于Bilstm模型的传统提取方法相比,BigRU的训练时间缩短了四倍,从而导致了较高的训练能力。根据实验发现,使用建议的意图识别方法开发了语音交互系统,在理解用户英语语音命令方面保持了高度的准确性和效率。平均准确率为89.72%,识别时间始终低于0.35秒,很明显,该方法适用于现实世界中的语音相互作用。基于手套的意图识别方法可以将注意力用于智能语音机器人中的英语语音互动。
摘要 — 近年来,使用生理传感器预测工作量的方法多种多样。然而,这些方法中的大多数都是在小数据集上训练模型,大脑中的通道位置数量很少,这限制了模型在参与者、任务或实验会话之间迁移的能力。在本文中,我们介绍了一种新方法,该方法使用基于认知负荷理论的方法并采用结合注意力机制和自监督标签增强 (SLA) 的双向门控循环单元 (BiGRU),对大量跨参与者和跨会话的高密度功能近红外光谱 (fNIRS) 数据集进行建模。我们表明,我们提出的 CNN-BiGRU-SLA 模型可以学习和分类不同级别的工作记忆负荷 (WML) 和视觉处理负荷 (VPL) 在不同参与者之间。重要的是,我们利用多标签分类方案,我们的模型经过训练可以预测同时发生的 WML 和 VPL 水平。我们使用留一法 (LOOCV) 和 10 倍交叉验证来评估我们的模型。使用 LOOCV,对于二元分类(关闭/打开),我们在 22 位参与者(每位参与者参加了 2 次会话)中获得了 WML 的 0.9179 F1 分数和 VPL 的 0.8907 F1 分数。对于多级(关闭、低、高)分类,我们获得了 WML 的 0.7972 F1 分数和 VPL 的 0.7968 F1 分数。使用 10 倍交叉验证,对于多级分类,我们获得了