摘要这项研究提出了一种新型的杂交元神经算法,正弦辅助教学学习学习的优化(SCATLBO),旨在训练用于单声道和多模式医学图像注册的喂养前进神经网络(FNNS)。scatlbo结合了正弦骨算法(SCA)的优势,用于探索基于教学学习的优化(TLBO),以实现剥削,达到了平衡,从而增强了算法能力,以避免局部最小值并提高逆转率。医学图像注册,对于准确的医学分析必不可少的,从这种混合方法中受益,因为它有效地对齐了复杂的多模式图像。在这项工作中,SCATLBO用于训练来自癌症基因组乳房侵入性癌(TCGA-BRCA)数据集的乳房MRI图像。SCATLBO的性能是针对几种众所周知的元启发式算法的基准测试,包括TLBO,粒子群优化(PSO),蚂蚁菌落优化(ACO),灰狼优化器(GWO)和进化策略(ES),以及基于平均平方误差(MSE)的评估(MIS)和杂音的评估(MI)。实验结果表明,SCATLBO在准确性,收敛速度和稳健性方面优于其他技术,将其确立为基于神经网络的图像注册任务的有前途的工具。这项工作有助于提高FNN的元启发式培训方法,并在各种医学成像领域中使用了潜在的应用。
航空工业一直在寻求在人力、计算时间和资源消耗方面更高效的设计优化方法。当代理模型和最终过渡到 HF 模型的切换机制都经过适当校准时,混合代理优化可以在提供快速设计评估的同时保持高质量结果。前馈神经网络 (FNN) 可以捕获高度非线性的输入-输出映射,从而产生有效的飞机性能因素替代品。然而,FNN 通常无法推广到分布外 (OOD) 样本,这阻碍了它们在关键飞机设计优化中的应用。通过基于平滑度的分布外检测方法 SmOOD,我们建议使用优化的 FNN 替代品对模型相关的 OOD 指标进行编码,以生成具有选择性但可信预测的可信代理模型。与传统的基于不确定性的方法不同,SmOOD 利用 HF 模拟固有的平滑特性,通过揭示其可疑的敏感性来有效地暴露 OOD,从而避免对 OOD 样本的不确定性估计过于自信。通过使用 SmOOD,只有高风险的 OOD 输入才会被转发到 HF 模型进行重新评估,从而以较低的间接成本获得更准确的结果。研究了三种飞机性能模型。结果表明,基于 FNN 的替代方法优于高斯过程替代方法
我们提出了一种机器学习方法,以模拟与任务依赖性fMRI数据的大脑效果的长期样本外动力学。我们的方法是三阶段。首先,我们利用扩散图(DMS)来发现一组变量,该变量参数化了低维歧管,而新兴的高维fMRI时间序列序列进化。然后,我们通过两种技术在嵌入式歧管上构造了还原阶模式(ROMS):前馈神经网络(FNNS)和Koopman操作员。最后,为了预测环境fMRI空间中脑敏感性的样本外长期动力学,我们在使用FNNS和Koopman模式本身时解决了与几何谐波(GH)偶联DMS的前图。在我们的插图中,我们使用了Visuo-Motor任务期间使用带有记录的基准fMRI数据集评估了两种提出的方案的性能。结果表明,高维fMRI时间序列的几个(对于特定任务,五个)非线性坐标为建模和样本外预测的良好基础提供了良好的基础。此外,我们表明所提出的方法的表现优于天真随机步行模型的一步前进的预测,与我们的方案相反,该模型依赖于上一个时间步骤中信号的知识。重要的是,我们表明,提出的Koopman操作员方法为了任何实际目的提供了与FNN-GH方法相同的结果,从而绕开了训练非线性地图并使用GH来超越环境fMRI空间中的预测的需求;可以改为使用L 2综合函数的DMS函数空间的低频截断,以预测fMRI空间中的整个坐标函数列表并解决前图像问题。
摘要 隐式神经表征已成为表示图像和声音等信号的强大范例。这种方法旨在利用神经网络来参数化信号的隐式函数。然而,在表示隐式函数时,传统神经网络(例如基于 ReLU 的多层感知器)在准确建模信号的高频分量方面面临挑战。最近的研究开始探索使用傅里叶神经网络 (FNN) 来克服这一限制。在本文中,我们提出了量子隐式表示网络 (QIREN),一种新的 FNN 量子泛化。此外,通过理论分析,我们证明了 QIREN 比经典 FNN 具有量子优势。最后,我们在信号表示、图像超分辨率和图像生成任务中进行了实验,以展示 QIREN 与最先进 (SOTA) 模型相比的卓越性能。我们的工作不仅将量子优势融入隐式神经表示中,而且还揭示了量子神经网络的一个有希望的应用方向。我们的代码可在 https://github.com/GGorMM1/QIREN 获得。
非接触式伤害在职业足球运动员中普遍存在。然而,关于此主题的大多数研究都是回顾性的,仅着眼于全球局势系统(GPS)指标和伤害发生之间的统计相关性,忽视了伤害的多因素性质。这项研究介绍了使用机器学习,利用GPS数据和特定于玩家的参数的自动伤害识别和预测方法。分析了来自葡萄牙第一分区团队的34名男性专业球员的样本,将弹射器接收器的GPS数据与机器学习模型的描述性变量结合在一起 - 支持向量机(SVMS),Feedforward神经网络(FNNS),以及适应性增强(Adaboost),以预测受伤。这些模型,尤其是具有成本敏感学习的SVM,在检测伤害事件,达到71.43%的敏感性,74.19%的特异性和总体准确性74.22%方面表现出很高的精度。关键预测因素包括玩家的位置,会话类型,播放器负载,速度和加速度。开发的模型以其平衡的灵敏度和特异性,无大量手动数据收集的效率以及预测短时间伤害的能力而着称。这些进步将有助于教练人员确定高风险的球员,优化团队绩效并降低康复成本。
这项全面的基准测试研究探讨了三个著名的机器学习库的性能:Pytorch,带有Tensorflow后端的Keras和具有相同标准,软件和硬件的Scikit-Learn。评估包括两个不同的数据集:“学生表现”和“大学参加计划分类”,由Kaggle平台支持使用前馈神经网络(FNNS)作为建模技术。调查结果表明,Pytorch和Keras凭借Tensorflow Backend Excel在“大学参加计划分类”数据集中,Pytorch在这两个类别中都能达到无可挑剔的精度,召回和F1得分。虽然Scikit-Learn表现出值得称赞的性能,但在这种情况下,它落后于这些库。在“学生表现”数据集中,所有三个库都提供了可比的结果,而Scikit-Learn的精度最低为16%。带有Tensorflow后端的Keras和Pytorch的精度分别为23%。此外,当面对各种数据集类型时,本研究为每个图书馆的独特优势和缺点提供了宝贵的见解。pytorch成为要求需要高性能的任务的首选选择,而Scikit-Learn对于具有适度的计算需求的简单任务证明是有利的。带有张力的后端的凯拉斯在性能和用户友好之间取得平衡。这项基准测试努力为机器学习从业人员提供了宝贵的指导,以选择根据其项目要求量身定制的最合适的图书馆或框架。关键字 - 机器学习,Pytorch,Tensorflow,Scikit-Learn,神经网络它强调了图书馆选择在获得机器学习努力中的最佳结果中的关键作用。
胎儿神经病学家(FNNS)考虑通过跨学科合作加强诊断,治疗和预后决定。生物学观点对妇女健康影响产妇 - 胎盘 - 遗传(MPF)三合会,新生儿和儿童的评估。双重认知过程集成了“快速思维思维”,以达成共享的决定,以最大程度地减少偏见和维持信任。评估科学不确定性的不确定性科学可改善整个发育范围连续性的诊断选择。三个案例小插图强调了说明这种方法的挑战。第一个母亲养育二元组涉及一名妇女,该女性被建议根据脑钙化的错误诊断来终止怀孕。随后在她寻求第二种意见的情况下对孩子的正常结果时,就会确定脑膜酸盐。第二个小插图涉及两次妊娠,在此期间鉴定出胎儿心脏纹状瘤,表明结节性硬化症复合物(TSC)。一名妇女在未经胎儿脑MRI或验尸检查的情况下寻求州外终止。第二名妇女要求怀孕,并进行产后评估。她的成年子女经历与TSC后遗症有关的挑战。第三个小插图涉及与关节炎多重兴尼提塔的开放神经管缺陷的产前诊断。一家人要求在另一个机构以个人费用进行严重预后,要求在另一家机构对缺陷进行外科手术封闭。功能改善或永久后遗症可以在整个寿命中表达。随后对脊髓脑元素研究(MOMS)的管理不建议此程序。他们的成年子女需要医疗护理,以解决全球发育延迟,顽固性癫痫和自闭症。这三项评估涉及不确定性,要求所有利益相关者之间共同的临床决策。虚假的负面或误导性的结果解释减少了最佳结果的机会。fnn诊断技能需要了解影响生殖的动态基因环境相互作用,其次是妊娠杂体,影响MPF三合会健康以及胎儿神经可塑性后果。有毒应激源相互作用会损害以异常和/或破坏性胎儿脑损伤表示的神经外博。对妇女和家庭的公平和富有同情心的医疗保健需要共同的决定,以保留怀孕健康,在特定于人的种族族裔,宗教和生物社会观点的指导下。将发展起源理论应用于神经系统原理和实践为每一代人的所有人提供了大脑健康资本策略。
通过可解释的AI(XAI)技术增强神经网络中的可解释性。电子。电子。eng。,卷。1,否。1,pp。1-5,2024。版权:从医疗保健诊断到财务建模的各种应用程序中神经网络的快速发展,已大大提高了决策过程的准确性和效率。但是,这些模型通常可以用作黑匣子,几乎没有深入了解它们如何到达特定的预测。这种缺乏解释性为其在信任,问责制和透明度至关重要的关键领域中采用的主要障碍。本研究旨在通过开发一个集成了多种可解释的AI(XAI)技术来增强神经网络的可解释性的新型框架来解决这一问题。所提出的框架结合了特征分析,层相关性传播(LRP)和视觉解释方法,例如梯度加权类激活映射(Grad-CAM)。这些技术共同对神经网络的决策过程提供了全面的看法,使它们对利益相关者更加透明和可以理解。简介和背景1.1。1.2。2。方法论2.1。数据收集我们的实验结果表明,综合的XAI框架不仅可以提高可解释性,而且还保持了高度的准确性,从而弥合了性能和透明度之间的差距。这项研究为在关键应用程序中部署可解释的神经网络提供了基础,确保了AI驱动的决策是可靠且可理解的。关键字:神经网络;可解释的AI;毕业-CAM;解释性;准确性缩写:XAI:可解释的AI; LRP:层次相关性传播; Grad-CAM:梯度加权类激活映射; AI:人工智能; FNNS:前馈神经网络; CNN:卷积神经网络; Shap:Shapley添加说明1。引言人工智能(AI)已成为现代技术进步的基石,神经网络在各种应用中起着关键作用,例如图像识别,自然语言处理和预测分析。尽管取得了成功,但阻碍神经网络更广泛接受的主要挑战之一,尤其是在医疗保健,金融和自治系统等关键领域,它们缺乏解释性。这些模型的黑框性质使得很难理解它们如何处理输入数据并生成输出,从而导致信任和问责制。可解释的AI(XAI)已成为一个关键的研究领域,旨在使AI系统更加透明和可解释。XAI技术努力阐明复杂模型的内部运作,从而允许用户理解,信任和有效地管理AI驱动的决策。本文着重于通过将各种XAI技术整合到一个凝聚力框架中来增强神经网络的可解释性。目标是为利益相关者提供对模型预测的明确和可行的解释,促进信任并使AI系统在高风险环境中的部署。背景这项研究的动机源于AI系统对透明度和问责制的需求不断增长。例如,在医疗保健中,临床医生需要了解AI驱动的诊断建议,以信任和对它们采取行动。同样,在金融中,利益相关者必须理解基于AI的风险评估,以确保公平性和法规合规性。在自主系统(例如自动驾驶汽车)中,了解决策过程对于安全性和可靠性至关重要。解决这些需求时,我们的研究旨在弥合高性能神经网络与可解释性的基本要求之间的差距,从而促进对各种关键应用程序的AI系统的更大接受和信任。神经网络,尤其是深度学习模型,由于能够从大型数据集中学习并捕获复杂的模式,因此在众多应用程序中取得了前所未有的成功。但是,它们的复杂体系结构通常由多个隐藏的层和数百万个参数组成,使它们变得不透明且难以解释。对AI的解释性的需求导致了旨在揭开这些黑盒模型的几种XAI技术的开发[1,2]。