最近的工作表明,稀疏的自动编码器(SAE)能够有效地发现语言模型中的人解释功能,从玩具模型到最先进的大语言模型等等。这项工作探讨了SAE的使用是否可以推广到机器学习的其他品种,特定的,加固学习,以及如何(如果有的话)将SAES适应这一实质上不同的任务所需的修改。本研究使用玩具加强学习环境来进行经验实验,研究了SAE代表强化学习模型作为可解释特征的能力的定性和定量度量。发现SAE成功地将深Q网络的内部激活分解为可解释的特征,此外,这些人解释的某些特征代表了对仅凭深度Q网络单独输出而无法发现的基本任务的内部理解。
摘要 机器学习对脑电图 (EEG) 数据进行分类的研究为各种神经和精神疾病的诊断和预后提供了重要视角,但此类系统的临床应用率仍然很低。我们在此提出,将 EEG 机器学习研究转化为临床应用的大部分困难源于其技术报告中的一致不准确性,这严重损害了其通常很高的性能要求的可解释性。以 EEG 研究中使用的一类主要机器学习算法——支持向量机 (SVM) 为例,我们重点介绍了模型开发的三个重要方面(规范化、超参数优化和交叉验证),并表明,虽然这 3 个方面可以成就或破坏系统的性能,但令人震惊的是,绝大多数研究文献中都没有记录它们。对模型开发的这些方面进行更系统的描述构成了三个简单的步骤,以提高 EEG-SVM 研究的可解释性,并最终提高其临床应用。
现代机器学习系统在自动化决策中越来越普遍,涵盖了私人和公共领域的各种应用。随着这种趋势的持续,机器学习系统的部署越来越缺乏人类监督,包括在其决策可能对人们的生活产生重大影响的领域。这些领域包括自动信用评分、医疗诊断、招聘和自动驾驶等。1 与此同时,机器学习系统也变得越来越复杂,很难分析和理解它们如何得出结论。这种复杂性的增加——以及随之而来的可解释性的缺乏——对在高风险环境中使用机器学习系统提出了根本挑战。
讨论•图2和3显示了SVM,KNN和LR模型的比较,表明SVM和KNN在准确性,精度,召回和F1得分等关键指标中的表现始终优于LR。•SVM总体上表现出最强大的性能,而KNN的精确性和召回率具有竞争力。lr虽然效率较低,但在更简单的情况下表现出了可接受的结果。•葡萄糖是最具影响力的特征,较高的值强烈促进阳性糖尿病预测。年龄和BMI也是重要的预测因子,其中较高的值通常表明风险增加。该图在视觉上区分高(粉红色)和低(蓝色)特征值及其相应的形状值,显示了单个特征如何影响模型的预测。•LinearSVC的表现最高,精度最高(0.76)和F1-SCORE(0.63)。
摘要:我们引入了脑启发的模块化训练(BIMT),这是一种使神经网络起作用的方法更模块化和可解释。受到大脑的启发,BIMT将神经元嵌入几何空间中,并以与每个神经元连接长度成正比的成本增强损失函数。这是受到进化生物学中最低连接成本的想法的启发,但我们是首先将这一想法与培训神经网络结合起来的,具有梯度下降以供解释性。我们证明,BIMT发现了许多简单任务的有用的模块化神经网络,以符号公式,可解释的决策边界和分类特征以及算法数据集中的数学结构揭示了组成结构。在定性上,受BIMT训练的网络具有肉眼容易识别的模块,但经常训练的网络似乎更为复杂。定量,我们使用纽曼的方法来计算网络图的模块化; BIMT在我们所有的测试问题上都达到了最高的模块化。一个有前途且雄心勃勃的未来方向是应用提出的方法来了解视力,语言和科学的大型模型。
脑电图 (EEG) 是一种非侵入性工具,通过将电极放置在人体头皮上来测量大脑活动,从而检测神经元放电电压。虽然 EEG 技术存在信噪比差和仅捕获表面大脑活动等局限性,但它仍然是诊断癫痫和睡眠障碍等疾病的可靠方法 [ 1 ]。自动编码器 [ 2 ] 是一类特殊的神经网络,用作编码器-解码器对。编码器通过逐步减少各层的神经元数量,最终达到瓶颈层,将输入数据压缩为压缩表示,称为潜在空间。相反,解码器通过逐渐增加后续层中的神经元数量从这种压缩形式重建输入数据。这种压缩和重建过程使网络能够有效地捕获输入数据的显着特征。卷积变分自动编码器 (CVAE) [ 3 , 4 ] 通过合并卷积层扩展了此框架,使其特别适合处理图像数据。与标准自动编码器不同,CVAE 生成概率潜在空间。这种概率方法有助于学习稳健的特征,并增强模型生成类似于训练数据的新数据实例的能力。利用卷积层,CVAE 可以利用数据中的空间层次结构,从而增强其分析和重建图像数据中固有的复杂模式和纹理的能力。因此,CVAE 在要求详细
大脑中不规则的电活动会导致人的行为、运动、感官体验和对周围环境的意识发生深刻而暂时的变化(Nasiri 和 Clifferd,2021 年)。在早期阶段识别和治疗癫痫对患有这种疾病的人来说可以带来关键而有价值的变化。头皮脑电图 (EEG) 是一种测量大脑电活动的非侵入性技术,是诊断癫痫的广泛使用的补充检查(Liang 等人,2020 年)。在癫痫发作期间,患者的脑电图将显示出明显的异常模式(Staba 等人,2014 年)。医生可以通过检查脑电图来帮助确定是否发生癫痫。然而,审查长期脑电图需要医生投入大量的时间和精力。因此,开发自动癫痫检测算法至关重要(Si 等人,2023 年)。研究人员正积极致力于开发利用脑电图数据自动检测癫痫发作的方法。从最初使用硬件电路的尝试到后来利用时域信息和基于阈值的方法进行癫痫发作检测。后续发展涉及使用频域特征和提取时频特征(Xia 等人,2015 年)进行癫痫发作检测。自引入以来,深度学习模型在计算机视觉任务中比手动提取的特征更具弹性(Chen 等人,2024 年)、语音识别(Eris and Akbal,2024 年)和自然语言处理(Luo 等人,2024 年)。因此,利用深度学习技术自动使用脑电图信号检测癫痫发作已显示出在做出最合适和最快临床决策方面具有重大前景(Ahmad 等人,2023 年)。近几年来,各种深度学习模型已用于癫痫发作检测,包括循环神经网络(Tuncer 和 Bolat,2022 年)、生成对抗网络(Rasheed 等人,2021 年)、深度神经网络(Liu 和 Richardson,2021 年)、分层神经网络(Hu 等人,2021 年)和卷积神经网络。这些模型取得了令人鼓舞的结果(Kaur 等人,2022 年)。卷积网络在逐像素进行端到端训练后,性能得到了进一步提升。随着全卷积网络 (FCN) 的引入,神经网络设计可以处理不同大小的输入,并通过高效的推理和学习机制产生相应大小的输出(Chou 等人,2023 年)。然而,FCN 尚未广泛应用于癫痫发作检测。同时,以往的深度学习算法往往忽略了不同通道对分类任务的贡献,导致模型的可解释性有限。针对上述问题,本文提出了一种基于深度学习的独立癫痫检测算法。算法可以从多通道脑电图数据中自主提取时间和空间信息,从而能够精确识别不同患者的癫痫发作事件。本文做出了几个关键贡献,包括:λ 提出了一种结合 SE(挤压和激励)模块的 CNN 模型检测算法。该方法已在 CHB-MIT 数据集上进行了评估,并取得了优异的性能。λ 首次将 FCN 模型中的上采样方法应用于癫痫发作检测,通过利用反卷积实现,将降尺度的图像从
因此,可解释性被提出作为增强基于人工智能的系统可理解性的替代概念。与可解释性的区别在于“可解释模型是学习更结构化、可解释或因果模型的机器学习技术”[4]。换句话说,简单地说,可以说可解释性回答了“人工智能模型是如何工作的?”的问题,而可解释性则侧重于“为什么人工智能模型会提出这样的决定?”。许多作者都做出了这种区分[8-9],尽管其他一些人以不加区分的方式使用“可解释性”和“可解释性”这两个术语[10-13],或者最终坚持可解释模型的卓越性,特别是如果自动决策算法影响人类[14-15]。这种缺乏共识至少在一定程度上是由于解决可解释性问题的领域的异质性。然而,这些关键概念的定义对于研究项目的构建和推进至关重要。这就是为什么我们提出探索这样一个假设,即管理可解释性和可解释性之间的协同作用可以对决策过程产生积极影响,我们为此目的进行系统的文献综述。