摘要 - 在非驾驶飞机(UAV)的动态和不断变化的领域中,最重要的重要性在于保证弹性和清醒的安全措施。这项研究强调了实施零信托架构(ZTA)的必要性,以增强无人机的安全性(UAVS)的安全性,从而脱离了可能暴露于脆弱性的传统外围防御能力。零信任体系结构(ZTA)范式需要一个严格且连续的过程来验证所有网络实体和通信。我们方法在检测和识别非驾驶飞机(UAV)方面的准确性为84.59%。这是通过在深度学习框架内利用射频(RF)信号来实现的,这是一种独特的方法。精确的标识在零信任体系结构(ZTA)中至关重要,因为它决定了网络访问。此外,使用可解释的人工智能(XAI)工具,例如Shapley添加说明(SHAP)和局部可解释的模型 - 不合Snostic解释(LIME),这有助于改善模型的透明度和可解释性。遵守零信任体系结构(ZTA)标准可以确保无人驾驶汽车(UAV)的分类是可验证且可理解的,从而增强了无人机领域内的安全性。索引术语 - 零信任体系结构,无人机检测,RF信号,深度学习,塑造,石灰,可解释的AI,空域安全
尽管许多现代人工智能系统通常能够学习自己的表征,拥有令人惊讶的强大功能,但人们对它们的不可捉摸性以及与人类互动能力随之而来的问题感到非常不满。虽然已经提出了神经符号方法等替代方案,但对于这些方法的具体内容缺乏共识。通常有两个独立的动机:(i) 符号作为人机交互的通用语言;(ii) 符号作为人工智能系统在其内部推理中使用的系统生成的抽象。关于人工智能系统是否需要在其内部推理中使用符号来实现一般智能能力,目前尚无定论。无论答案是什么,人机交互中对(人类可理解的)符号的需求似乎非常引人注目。符号,就像情绪一样,可能不是智能本身的必要条件,但它们对于人工智能系统与人类互动至关重要——因为我们既不能关闭我们的情绪,也不能没有我们的符号。特别是在许多人为设计的领域,人类会对提供明确的(符号)知识和建议感兴趣——并期望机器以同样的方式进行解释。仅此一点就要求人工智能系统维护一个符号界面以便与人类互动。在这篇蓝天论文中,我们论证了这一观点,并讨论了需要追求的研究方向,以实现这种类型的人机互动。
大脑计算界面(BCI)是一项导致神经疾病应用程序发展的技术。BCI建立了大脑与计算机系统之间的联系,主要集中于协助,增强或恢复人类的认知和感觉 - 运动功能。BCI技术使从人脑中获得脑电图(EEG)信号。这项研究集中于分析包括Wernicke和Broca领域在内的发音方面,以进行无声的语音识别。无声的语音界面(SSI)为依赖声信号的传统语音界面提供了一种替代方案。无声的语音是指在没有听觉和可理解的声学信号的情况下传达语音的过程。本研究的主要目的是提出用于音素分类的分类器模型。输入信号经过预处理,并使用传统方法(例如MEL频率CEPSTRUM系数(MFCC),MEL频率光谱系数(MFSC)和线性预测编码(LPC)进行特征提取。最佳功能的选择是基于对主题的分类精度,并使用集成堆栈分类器实现。集成的堆叠分类器优于其他传统分类器,在Karaone数据集中的思维和说话状态达到75%的平均准确性,在14个通道EEG EEG上的思维和说话状态的平均精度为84.2%和84.09%,用于IMIVENIDECENTECTIOM EEG(FEIS)。
目的和动机:本期特刊旨在提供一套全面的方法、模型和系统,这些方法、模型和系统都属于粒计算的共同范畴,旨在为机器学习方法和应用提供可解释性。可解释人工智能 (XAI) 将允许领域专家验证黑盒 AI 算法或过程提供的结果,以让他们参与决策过程。为此,XAI 方法应该提供对 AI 模型结果背后原因的清晰理解。在这方面,XAI 方法可以采用信息粒化方法,以分层和/或语义方式聚合数据实例,以提供聚合的、人类可理解的解释;以语义组织的方式表示数据实例(例如通过聚类)以查找类原型或反事实;采用符号或神经符号建模来隔离由特定符号激活的神经网络部分(例如,手写符号可以识别为笔画组);并获得语义相关的信息颗粒(例如通过表示学习)作为构建解释的概念。此外,一些人工智能方法构建了可通过设计解释的模型,即不需要任何额外的程序来解释其内部模型,因为它们不是黑匣子。当前研究的主要不足之一是了解可通过设计解释的模型在准确性方面是否与需要通过多种方式解释的黑匣子模型兼容。
摘要:人工智能 (AI) 和自然语言处理 (NLP) 是医疗保健领域不可或缺的技术,它们可以支持强大且安全的数字系统,并嵌入物联网 (IoT) 应用。本研究试图构建一个人工智能-自然语言处理集群系统。在该系统中,使用词性提取丰富的内容,然后将其分类为可理解的数据集。无法使用具有标准化流程和程序的独特系统来跨不同系统支持电子医疗保健部门,这对各国乃至全世界都是一个巨大的挑战。旨在训练一个集群系统,该系统可以提取丰富的内容并适应深度学习模型框架,以便通过快速安全的数字系统解释医疗保健需求的数据集。本研究使用(行为导向驱动和影响函数)来确定 AI 和 NLP 对电子健康的重要性。基于选择性评分方法,开发了 5 分制中的 1 分率,称为关键优势分数。行为导向驱动和影响函数允许根据应用于样本研究的文本内容选择对电子健康进行深入评估。结果显示,NLP 和 AI 在电子医疗领域的规模显著性得分为 3.947。研究得出结论,定义明确的人工智能和自然语言处理应用是推动医疗电子服务取得积极成果的完美领域。
摘要 — 患有注意力缺陷多动障碍 (ADHD) 的儿童在日常生活中表现出不同的症状,例如难以集中注意力、冲动、难以调节运动功能等。最常用的治疗方法是药物治疗,但会产生副作用。另一种解决方案是行为治疗,但似乎并不比药物治疗效果更好,而且成本更高。一种越来越受关注的新方法是使用神经反馈 (NF) 来教患者自己调节症状,通过以可理解的形式可视化大脑活动。此外,虚拟现实 (VR) 是 ADHD 背景下 NF 的支持环境。然而,在进行 NF 之前,确定与症状表现相对应的生理信号特征非常重要。我们在此提出了一个新框架,该框架基于可嵌入 VR 耳机的设备对脑电图 (EEG) 和视线方向的联合测量,目标是估计注意力状态。在信号采集的同时,执行注意力任务来标记生理信号。从信号中提取特征,并应用机器学习 (ML) 模型来检索注意力状态。这项初步研究提供了令人鼓舞的结果,能够在多种情况下做出正确的分类。此外,带有标记生理信号的数据集正在开发中。这将有助于更好地理解 ADHD 症状背后的机制。关键词 —虚拟现实、眼动追踪、脑机接口、机器学习
级别 分数描述 0 • 没有可奖励的材料。 级别 1 1–3 • 不到四分之一的写作内容显示出能够表达与所需的叙述、报告或描述相关的想法,并且想法几乎不遵循逻辑顺序。 • 文章很少连贯,并且离题太多,以至于文章的整体主题或目的被严重掩盖。 级别 2 4–6 • 大约三分之一的写作内容显示出能够以母语读者可以理解的形式表达想法,只有偶尔的证据显示想法遵循逻辑顺序。 • 文章偶尔连贯,虽然有些偏离主题,但整体主题或目的通常是明确的。 级别 3 7–9 • 大约一半的写作内容显示出能够以母语读者可以理解的形式表达想法,并且有些证据显示想法遵循逻辑顺序。 • 文章有时连贯,并且有些离题,但整体主题或目的明确。 4 级 10–12 • 大约四分之三的写作内容显示能够以母语读者可理解的形式表达思想,且很多证据表明思想遵循逻辑顺序。 • 作品大部分连贯,虽然偶尔会出现歧义或离题,但这些似乎是作品中其他相关部分的异常。 5 级 13–15 • 所有内容都显示能够以逻辑顺序表达思想,错误不会影响理解。 • 作品完全连贯,虽然偶尔会出现歧义或离题,但作品自信、流畅、相关且有目的性。
摘要 - 本文提出了一种新的在线功能选择方法,并意识到群体公平。它的症结在于优化所选特征子集中产生模型的准确性和公平性之间的权衡。我们设置的技术挑战是双重的:1)流媒体功能输入,因此,如果其信息已被其之前到达的其他类似功能涵盖的信息可能会过时或重新进行预测,而2)2)非缔合功能相关性,从而使这些偏见可能从这些看似可理解的,未经保护的功能中泄漏出来。为了克服这一点,我们提出了通过因果公平(SFCF)的流式特征选择,该特征选择分别构建了两个因果图,分别为预测标签和受保护特征,努力建模流媒体特征,标签和受保护信息之间的复杂相关结构。因此,可以通过去除这些特征与受保护的特征相关但与标签无关的因果关系来从预测建模中消除偏差。我们认为,当大量删除的功能(未受保护但可用于重建偏见信息)损害学习准确性时,最初的预测功能后来可以被接受。我们在流式传输特征研究中广泛使用的五个数据集上的SFCF基准,结果证明了其在六个竞争对手模型上的性能优越性,就特征选择的效率和稀疏性而言,以及由此产生的预测模型的均衡优势。
在所谓的第二波人工智能 (AI) 浪潮中,数据驱动的复杂机器学习方法取得了明显进步,这促进了人们对 AI 在人类生活、实践和社会各个领域和方面的应用潜力的探索。人工智能领域最近的大部分成功来自于在图像、文本和语音识别或战略棋盘和视频游戏等任务中使用表示学习和端到端训练的深度神经网络模型。通过实现自动特征工程,深度学习模型大大减少了对领域专家知识的依赖,优于基于手工特征工程的传统方法,并且在某些方面达到了与人类相当甚至超越人类的性能。尽管取得了突出的进步和潜在的好处,但对基于深度学习的 AI 解决方案的黑箱性质和行为背后缺乏透明度的担忧阻碍了它们在我们社会中的进一步应用。为了在我们的日常生活和实践中完全信任、接受和采用新兴的人工智能解决方案,我们需要以人为本的可解释人工智能 (HC-XAI),它可以为算法行为和结果提供人类可理解的解释,从而使我们能够在人工智能应用的整个生命周期内控制并不断提高其性能、稳健性、公平性、可追溯性、透明度和可解释性。遵循这一动机,多元化和多学科研究界最近出现的趋势是基于以人为本的人工智能方法的探索和情境解释模型的开发,推动人类智能 (HI) 和人工智能 (AI) 的共生,这构成了下一波(第三波)人工智能的基础。
在所谓的第二波人工智能 (AI) 浪潮中,数据驱动的复杂机器学习方法取得了明显进步,这促进了人们对 AI 在人类生活、实践和社会各个领域和方面的应用潜力的探索。人工智能领域最近的大部分成功来自于在图像、文本和语音识别或战略棋盘和视频游戏等任务中使用表示学习和端到端训练的深度神经网络模型。通过实现自动特征工程,深度学习模型大大减少了对领域专家知识的依赖,优于基于手工特征工程的传统方法,并且在某些方面达到了与人类相当甚至超越人类的性能。尽管取得了突出的进步和潜在的好处,但对基于深度学习的 AI 解决方案的黑箱性质和行为背后缺乏透明度的担忧阻碍了它们在我们社会中的进一步应用。为了在我们的日常生活和实践中完全信任、接受和采用新兴的人工智能解决方案,我们需要以人为本的可解释人工智能 (HC-XAI),它可以为算法行为和结果提供人类可理解的解释,从而使我们能够在人工智能应用的整个生命周期内控制并不断提高其性能、稳健性、公平性、可追溯性、透明度和可解释性。遵循这一动机,多元化和多学科研究界最近出现的趋势是基于以人为本的人工智能方法的探索和情境解释模型的开发,推动人类智能 (HI) 和人工智能 (AI) 的共生,这构成了下一波(第三波)人工智能的基础。