摘要 近年来,基于深度学习 (DL) 的人工智能 (AI) 引起了全球的极大兴趣。DL 已广泛应用于图像识别、语音识别和自然语言处理,但对医疗保健的影响才刚刚开始。在眼科领域,DL 已应用于眼底照片、光学相干断层扫描和视野,在检测糖尿病视网膜病变和早产儿视网膜病变、青光眼样视盘、黄斑水肿和老年性黄斑变性方面实现了强大的分类性能。眼部成像中的 DL 可与远程医疗结合使用,作为筛查、诊断和监测初级保健和社区环境中患者主要眼部疾病的可能解决方案。尽管如此,DL 在眼科中的应用也存在潜在挑战,包括临床和技术挑战、算法结果的可解释性、法医学问题以及医生和患者对 AI“黑箱”算法的接受度。DL 可能会彻底改变未来眼科的实践方式。本综述概述了针对眼科应用的最先进的 DL 系统、临床部署中的潜在挑战以及未来发展方向。
如果 AI 软件专利将黑箱概念声称为“机器学习”或“神经网络”,而没有在说明书中详细说明其实施的具体细节,或者如果它们用 POSITA 的知识代替实际披露,则它们可能会违反 §112 的要求。由于 AI 专利可能允许发明者对模糊的自我、计算机训练的相关性和预测合成获得法律保护,因此 AI 专利权利要求的范围可能会受到质疑。请参阅 Sameer Gokhale,“AI 和书面说明:AI 专利权利要求何时越界?”,Oblon(最后访问于 2024 年 1 月 22 日)。随着越来越多的 AI 专利被诉讼,必然会有更多有关此类专利及其所声称的 AI 技术的 §112 争议。因此,正如 Alice §101 挑战随着 AI 专利的增长而增加一样,§112 挑战也可能如此。虽然有人声称,第 112 条的最近复苏是“授权法的一次重大转变”,但这仍有待观察——尤其是在 AI 专利权利要求的背景下。参见 Gene Quinn 的“最高法院在安进裁决中开启授权法新时代”,IPWatchdog,
人工智能理论的不断发展,在众多学者和科研人员的不懈努力下,已经达到了前所未有的高度。在医疗领域,人工智能发挥着至关重要的作用,其强大的机器学习算法发挥着重要作用。医学影像领域的人工智能技术,可以辅助医生进行X光、CT、MRI等检查诊断,基于声学数据进行模式识别和疾病预测,为患者提供疾病类型和发展趋势的预测,以及利用人机交互技术实现智能健康管理可穿戴设备等。这些成熟的应用为医疗领域的诊断、临床决策和管理提供了极大的帮助,但医疗与人工智能的协同也面临一个迫切的挑战:如何保证决策的可靠性?其根源在于医疗场景的可问责性和结果透明性需求与人工智能的黑箱模型特性之间的冲突。本文回顾了基于可解释人工智能 (XAI) 的最新研究,重点关注视觉、音频和多模态视角的医疗实践。我们努力对这些实践进行分类和综合,旨在为未来的研究人员和医疗保健专业人员提供支持和指导。
摘要:机载激光雷达是一种广泛接受的考古勘探工具。在过去十年中,考古学专用的数据处理工作流程不断发展,从原始数据采集和处理、点云处理和产品派生到考古解释、传播和存档。但目前尚未就具体步骤或术语达成一致。此工作流程是一种解释性知识生产过程,必须进行记录,以确保基于证据的考古解释所需的知识透明度和问责制。然而,这种情况很少见,而且没有公认的模式,更不用说标准了。因此,存在这样的风险:工作流程的数据处理步骤可能会被视为黑箱过程,其结果可能会被视为“硬数据”。记录科学过程的第一步是定义它。因此,本文对现有的针对机载 LiDAR 地形数据处理的考古学专用工作流程进行了批判性回顾,得出了具有一致术语的 18 步工作流程。其新颖性和重要性在于,现有的综合研究已经过时,而较新的研究则侧重于工作流程的某些方面。基于更新的工作流程,介绍了其文档的一个很好的实践示例。
所谓的焊接树问题是黑箱问题的一个例子,量子行走可以比任何经典算法 [3] 更快地解决该问题。给定一个特殊入口顶点的名称,量子行走可以使用多项式次数的查询找到另一个独特的出口顶点,尽管找不到从入口到出口的任何特定路径。二十年来,是否存在有效的量子算法来寻找这样的路径,或者路径寻找问题即使对于量子计算机来说是否也很难,这一直是一个悬而未决的问题。我们表明,一类自然的高效量子算法可以证明无法找到从入口到出口的路径。具体而言,我们考虑在算法叠加的每个分支中始终存储一组顶点标签,这些标签形成包含入口的连通子图,并且仅将这些顶点标签作为 oracle 的输入。虽然这并不排除量子算法能够有效找到路径的可能性,但尚不清楚算法如何通过偏离这种行为而受益。我们的无效结果表明,对于某些问题,量子算法必须忘记它们采取的解决问题的路径,才能胜过经典计算。
综述目的。机器学习 (ML) 是一种人工智能技术,允许计算机执行任务而无需明确编程。ML 可用于辅助诊断和预后脑部疾病。虽然最早的论文可以追溯到十多年前,但研究增长速度非常快。最新发现。最近使用 ML 进行诊断的研究已经从对特定疾病与对照的分类转变为鉴别诊断。大量研究致力于预测未来的患者状态。虽然许多早期研究都集中在神经影像作为数据源,但目前的趋势是多模式的整合。在目标疾病方面,痴呆症仍然占主导地位,但已经开发出针对各种神经和精神疾病的方法。总结。ML 在辅助诊断和预后脑部疾病方面非常有前景。尽管如此,我们认为,社区在将这些工具纳入临床常规方面仍有关键挑战需要解决:需要更广泛地采用有关验证和可重复研究的良好实践;需要广泛的泛化研究;需要可解释的模型来克服黑箱方法的局限性。关键词:人工智能;机器学习;转化研究;分类;预测 重点
摘要:近年来,人工智能(AI)在医学领域显示出巨大的前景。然而,可解释性问题使得AI在临床中的应用变得困难。一些研究已经对可解释的人工智能(XAI)进行了研究,以克服AI方法黑箱性质的局限性。与深度学习等AI技术相比,XAI可以提供模型的决策和解释。在这篇综述中,我们对使用XAI进行医学诊断和外科应用的最新趋势进行了调查。我们从PubMed,IEEE Xplore,计算机协会和Google Scholar搜索了2019年至2021年期间发表的文章。我们将符合选择标准的文章纳入综述,然后从研究中提取和分析相关信息。此外,我们提供了一个关于乳腺癌诊断的实验展示,并说明了XAI如何应用于医学XAI应用。最后,我们总结了医学XAI应用中使用的XAI方法,研究人员遇到的挑战,并讨论了未来的研究方向。调查结果表明,医学XAI是一个很有前景的研究方向,本研究旨在为医学专家和AI科学家在设计医学XAI应用时提供参考。
摘要 — 在本文中,我们通过区分新型冠状病毒疾病 (COVID-19) 或其他疾病引起的肺部不透明样本与正常病例,开发了一个从胸部 X 光片图像中识别肺部疾病的框架。我们执行图像处理任务、分割并训练定制的卷积神经网络 (CNN),在分类准确性方面获得合理的性能。为了解决这种复杂分类模型的黑箱性质,这种性质成为应用此类基于人工智能 (AI) 的方法自动化医疗决策的主要障碍,引起了临床医生的怀疑,我们解决了使用基于分层相关性传播 (LRP) 的方法定量解释我们采用的方法的性能的需要。我们还使用了基于像素翻转的稳健性能指标来评估我们采用的 LRP 方法的可解释性,并将其性能与其他可解释方法进行比较,例如局部可解释模型不可知解释 (LIME)、引导反向传播 (GB) 和深度泰勒分解 (DTD)。索引术语 — 深度学习、可解释 AI、分层相关性传播、LIME、深度泰勒分解、引导反向传播、医学诊断、胸部 X 光检查、COVID-19。
2021 年 3 月初,埃里克·施密特 (Eric Schmidt) 担任联合主席的国家人工智能安全委员会发布了一份报告,称美国在人工智能方面的立场落后于中国和俄罗斯。提出了多项举措来纠正这种情况。这一发展是在谷歌解雇两位著名且受人尊敬的伦理学家引发争议之后发生的。与此同时,机器人警犬在纽约市布朗克斯区进行了试验,全球疫情迫使高等教育在本已严峻的学生贷款危机中考虑自己的未来。在这种环境下,弗兰克·帕斯夸莱 (Frank Pasquale) 在其重要著作《黑箱社会》之后提出了《机器人新定律》。在早期的作品中,帕斯夸莱对侵犯社会生活的不透明数据收集和解释判断过程发出了令人信服和令人不寒而栗的号召。本书建立在之前努力的基础上,旨在推进一个有凝聚力的乐观计划,尽管它需要对所要解决的对象进行更深入的理论化。
摘要 在设计和实施自主系统时,主要的(如果不是最关键的)困难之一是决策结构和逻辑路径的黑箱性质。人类价值观如何在现场体现和实现最终可能会被证明是有害的,甚至是完全顽固的。因此,考虑到智能代理的不透明结构所带来的风险,利益相关者的价值观变得尤为重要。本文探讨了如何通过自动驾驶汽车的信念-愿望-意图模型设计决策矩阵算法,以最大限度地降低不透明架构的风险。主要通过明确地面向可解释性和可验证性的价值进行设计。为此,本研究采用价值敏感设计 (VSD) 方法作为将这些价值观纳入设计的原则框架。VSD 被认为是一个潜在的起点,它为工程团队提供了一种系统的方法,可以将现有的技术解决方案正式纳入道德设计中,同时保持对新出现的问题和需求的灵活性。结论是,VSD 方法至少提供了一个足够强大的基础,设计师可以从此开始预测设计需求并制定突出的设计流程,以适应自动驾驶汽车所需的不断变化的道德环境。