摘要尽管体外受精(IVF)已成为不育的一种极为有效的治疗选择,但可能受益于这种治疗的患者对IVF的未利用显着。为了使患者选择在适当的情况下考虑IVF治疗,对他们提供准确,可理解的IVF预后至关重要。机器学习(ML)可以根据治疗前的数据来应对个性化预后的挑战。ML预后模型和相关患者咨询报告的开发,验证和部署需要专业的人类和平台专业知识。本评论文章采用了一种务实的方法来回顾IVF预后模型的相关报告,并通过开发数据和模型管道来满足患者和提供者的需求的丰富经验,以在医疗点进行大规模实施经过验证的ML模型。在护理点上使用基于ML的IVF预后学的要求将与临床ML实施因子一起考虑对成功至关重要。最后,我们讨论了通过利用人类专业知识和ML预后的组合来扩大生育护理的访问以及提高健康和社会益处的健康,社会和经济目标。
相关声音(例如警报)有时会被不由自主地忽略,这种现象称为注意力缺失症。这种现象发生在特定条件下,包括高工作负荷(即多任务处理)和/或认知疲劳。在航空领域,这样的错误会对飞行安全造成严重后果。本研究采用了一种古怪范式,参与者必须在模拟飞行的生态背景下检测罕见声音。研究人员操纵认知疲劳和认知负荷来触发注意力缺失症,并通过脑电图 (EEG) 记录大脑活动。我们的结果表明,可以根据大脑活动的时频分析对警报遗漏和警报检测进行分类。当对所有参与者训练算法时,我们达到了 76.4% 的最大准确率,而当对一名参与者单独训练算法时,我们达到了 90.5% 的最大准确率。该方法可以受益于可解释的人工智能,开发高效、可理解的被动脑机接口,通过实时检测注意力缺陷来提高飞行安全性,并根据我们雄心勃勃的目标向飞行员提供适当的反馈,为他们提供可靠且丰富的人机交互。
抽象图神经网络(GNNS)是用于图形相关任务的强大工具,在进步的图形结构化数据中表现出色,同时保持置换不变性。然而,他们的挑战在于新节点表示的晦涩,阻碍了解释性。本文通过解释GNN预测来介绍一个框架,该框架解决了这一限制。所提出的方法采用任何GNN预测,为此,它将简洁的子图作为解释。利用显着性图,这是一种基于归因梯度的技术,我们通过通过反向传播将重要性得分分配给具有知识图的实体来增强可解释性。在药物重新利用知识图上进行了评估,图表网络的命中率为@5分为0.451,命中@10分数为0.672。图显示了明显的结果,最高召回率为0.992。我们的框架强调了GNN功效和可解释性,这在诸如药物重新利用之类的复杂情况下至关重要。通过阿尔茨海默氏病案例研究进行了说明,我们的方法为GNN预测提供了有意义且可理解的解释。这项工作有助于提高GNN在现实世界应用中的透明度和实用性。
1介绍世界各地,过去几十年来,在法医技术调查中使用的调查方法的专业发展取得了长足的进步。社会,国家立法,以及在反犯罪斗争中的国际合作,越来越多地通过引入认可的质量管理系统(QMS)来确保这种法医检查的质量。这一发展的结果是,法医技术调查的申请人期望提交给他们的专家报告包含可靠的结果。法医专家报告的用户必须正确解释内容。这意味着结果和结论还应包括提供的测量数据的可靠性程度。通过计算的测量不确定性及其在专家报告中的解释是适当的理想和/或必要的,以富集定量测量结果。 自然而然地,统计数据及其衍生物的表现,测量不确定性计算的性能已成为法医专家的专业培训的一部分。 尽管如此,法医专家经常会经历测量不确定性计算的性能,这是困难的必要性。 本指南旨在为寻求适用且可理解的知识的任何人提供信息和实践帮助,并制定有关如何在法医技术方法中应用测量不确定性的示例。 2本指南的目的是为涵盖定量测量方面的实用方法分享最佳实践。富集定量测量结果。自然而然地,统计数据及其衍生物的表现,测量不确定性计算的性能已成为法医专家的专业培训的一部分。尽管如此,法医专家经常会经历测量不确定性计算的性能,这是困难的必要性。本指南旨在为寻求适用且可理解的知识的任何人提供信息和实践帮助,并制定有关如何在法医技术方法中应用测量不确定性的示例。2本指南的目的是为涵盖定量测量方面的实用方法分享最佳实践。与ISO 17025 [1]的要求有关法医科学领域的要求,必须解决测量不确定性的领域。即使对于更复杂的示例,本指南中的示例也很简单。这允许本指南的广泛应用。不确定性测量计算基于公认的文献(第9节),包括本指南的作者(附录AIII)的经验。示例中存在逐步的方法,该方法允许了解使用的测量不确定性计算。这些示例为读者提供了一个路线图,以计算其自己方法的测量不确定性。3范围本指南的范围侧重于测量不确定性计算,如定量化学和物理法医研究方法中所应用的,法医定性方法中测量的不确定性是一个独立的感兴趣领域,在本指南中没有解释。
摘要 人工智能 (AI) 在各个领域的广泛应用导致了对算法理解、透明度和可信度的需求日益增长。可解释人工智能 (XAI) 领域旨在开发能够以人类可理解的方式检查和解释人工智能系统行为的技术。然而,解释的有效性取决于用户如何看待它们,而它们的可接受性与理解程度和与用户现有知识的兼容性有关。到目前为止,XAI 的研究人员主要关注解释的技术方面,大多没有考虑用户的需求,而这方面对于值得信赖的人工智能来说是必须考虑的。与此同时,人们对以人为本的方法越来越感兴趣,这种方法侧重于人工智能与人机交互的交集,即所谓的以人为本的 XAI (HC-XAI)。HC-XAI 探索了实现 XAI 系统的用户满意度、信任度和接受度的方法。本文对 HC-XAI 进行了系统调查,回顾了来自各个数字图书馆的 75 篇论文。本文的贡献包括:(1)确定常见的以人为本的方法,(2)为读者提供 HC-XAI 方法设计视角的见解,以及(3)对所有研究论文进行定量和定性分析。研究结果激发了讨论,并为 HC-XAI 正在进行和即将开展的研究提供了启示。
维护一个健全且有意义的应用程序组合对许多组织来说都是一项艰巨的任务。应用程序在内部开发,通过并购以连续且通常不受控制的方式被购买和添加。关于应用程序组合管理 (APM) 主题的科学文献主要集中于矩阵,这足以获得概览,但不足以就如何处理应用程序做出明智的决策。本研究的目标是找到可用于成功管理应用程序组合的关键原则,并找出这些原则如何支持有关应用程序命运的决策。我们的调查显示 (I) 商业价值、功能价值、技术质量和成本是决定应用程序命运的关键原则。 (II) 与应用程序组合管理相关的决策意味着将有关应用程序状态的信息转化为行动,而关键原则则给出了状态的概念。发生的相关操作是完全删除应用程序(删除)、保持应用程序原样(保留)、转换应用程序(重新开发)或用替代方案替换应用程序(替换)。 (III) 这些关键原则已成为设计应用程序命运决定框架 (FADD) 的基础,该框架可以以功能性和可理解的方式决定应用程序的命运。
脑机接口 (BCI) 技术的发展对于帮助因严重运动瘫痪而失去说话能力的人实现交流至关重要。一种越来越受关注的 BCI 控制策略采用从神经数据进行语音解码。最近的研究表明,直接神经记录和高级计算模型相结合可以提供有希望的结果。了解哪些解码策略可以提供最佳和直接适用的结果对于推动该领域的发展至关重要。在本文中,我们优化并验证了一种解码方法,该方法基于语音重建,该语音重建直接从语音生成任务期间来自感觉运动皮层的高密度皮层脑电图记录中进行。我们表明 1) 专用机器学习优化重建模型是实现最佳重建性能的关键;2) 重建语音中的单个单词解码可达到 92-100% 的准确率(偶然水平为 8%);3) 从感觉运动大脑活动直接重建可以产生可理解的语音。这些结果强调了模型优化以实现最佳语音解码结果的必要性,并强调了基于感觉运动皮层重建的语音解码为开发下一代 BCI 通信技术所提供的潜力。
•探索新兴技术和创新实践,以增强监视准确性并降低成本。分析与碳信用,弹性信用和生物多样性信用有关的现有政策和法规。•确定当前政策框架内的差距和机会,以支持实施不可接受的碳模型。•与包括UNCCD代表,项目实施者在内的主要利益相关者(包括UNCCD项目和其他重要利益相关者)互动,以收集见解和反馈。•提供IFAD和生物多样性学分推出的新弹性信用概述。•评估这些信用的潜力补充碳信用,包括其设计,实施和监视。•从碳信用额市场中汲取课程,可用于弹性和生物多样性信用,以提高其有效性和可扩展性。•开发了一个详细的模型,概述了对不可理解的碳模型的外观,并结合了经验教训和利益相关者的反馈。•为决策者,从业者和利益相关者提出明确的,可行的建议,以支持该模型的实施。•准备演示材料,以便在COP16上展示的政策摘要。•开发在演讲期间向当事方和利益相关者传达的谈话要点和关键信息。可交付成果
灾难,包括洪水和干旱,是许多国家(尤其是巴西)的紧迫问题,因为它们造成了生命损失和经济损失。预计气候变化的影响会通过增加极端天气事件的频率和强度来加剧这一问题。因此,开发准确可靠的灾难预测模型对于减少这些事件的影响至关重要。基于机器学习(ML)的方法,例如神经网络,已广泛用于开发洪水和干旱预测预测模型。但是,这些模型通常缺乏透明度和解释性,从而使他们的预测背后的推理挑战。缺乏解释性限制了这些模型在实际情况下,利益相关者需要清晰可理解的信息以做出决定[1,2]。将物理和数学约束纳入ML模型可以提高准确性和解释性。物理定律,例如群众保护或节能,可以限制ML模型的输出,以确保它们遵守已知的物理原理。数学约束,例如将特定于领域的知识纳入模型,也可以提高其准确性和解释性。这项多学科工作概述了有关洪水和干旱预测中ML应用的物理和数学约束的文献。涵盖的方法范围从简单的群众保护策略到更复杂的方法,例如Lagrangean
摘要。可解释人工智能 (XAI) 的理论、框架和工具的开发是当今非常活跃的研究领域,阐明任何形式的愿景和挑战的连贯性本身就是一项挑战。至少出现了两个有时互补且相互冲突的线索。第一个重点是开发实用工具,以提高自动学习的预测模型的透明度,例如通过深度学习或强化学习。第二个旨在预测不透明模型的负面影响,希望规范或控制错误预测的影响后果,特别是在医学和法律等敏感领域。制定使用领域知识增强预测模型构建的方法可以为产生人类可理解的预测解释提供支持。这与人工智能监管问题同时存在,例如欧盟《通用数据保护条例》,该条例为自动或半自动决策的解释制定了标准。尽管所有这些研究活动都越来越认识到可解释性主题至关重要,但重要的是要记住,它也是计算机科学最古老的领域之一。事实上,早期的人工智能是可追溯的、可解释的,因此人类可以理解和解释。这项研究的目标是阐明宏观思想及其在推进 XAI 系统发展中的作用,承认它们的历史根源,并强调前进的最大挑战。