1 慕尼黑工业大学医学院伊萨尔右医院神经放射学系,D-81675 慕尼黑,德国;b.wiestler@tum.de(BW);martin.gruber@tum.de(MJG);claus.zimmer@tum.de(CZ);jan.kirschke@tum.de(JSK)2 慕尼黑工业大学计算机辅助医疗程序,D-81675 慕尼黑,德国;matthias.keicher@tum.de(MK);hendrik.burwinkel@tum.de(HB);Florian.Hinterwimmer@tum.de(FH);tobias.czempiel@tum.de(TC);dominik.heim@tum.de(DH);nassir.navab@tum.de(NN)3 慕尼黑工业大学医学人工智能与信息学研究所,D-81675 慕尼黑,德国; daniel.rueckert@tum.de 4 慕尼黑大学医院放射科,D-80336 慕尼黑,德国;judith.spiro@med.uni-muenchen.de 5 科隆大学医院放射科,D-50937 科隆,德国;daniel.pinto-dos-santos@uk-koeln.de * 通讯地址:dennis.hedderich@tum.de
现代医学正在迅速发展,许多领域已经将人工智能融入临床实践:在肿瘤学中用于癌症诊断和分级(Londhe 和 Bhasin,2019 年);在胃肠病学中利用内窥镜检测和诊断病理病变(Alagappan 等人,2018 年),在放射学中用于检测和解释影像中的各种癌症实体(Hosny 等人,2018 年)。人工智能还进入了医学教育领域,被用于基于案例的电子学习(Khumrina 等人,2017 年)或通过虚拟标准化病人系统进行病史采集(Maicher 等人,2019 年;Randhawa 和 Jackson,2020 年)。这些工具可能会彻底改变医学教育,特别是因为机器和三个人类评分者之间的评分在准确性上具有可比性(Maicher 等人,2019 年)。人们普遍认为人工智能将在医学中发挥不可或缺的作用,但它对医学生及其未来的影响仍不清楚。一些研究表明,人工智能可能会使人们远离医学职业(Park 等人,2020 年)或更容易受到人工智能影响的专业,如放射学(Pinto Dos Santos 等人,2019 年)。其他研究表明,学生们不同意普通医生和放射科医生会被人工智能取代(Pinto Dos Santos 等人,2019 年)。影响医学生对人工智能态度的一个因素可能是他们对人工智能及其在医学中的应用的了解。知识差距源于课程设计不足以适应人工智能等现代医学进步。未能将人工智能材料嵌入课程的失败可以归因于多种因素。首先,缺乏与人工智能相关的认证要求将使管理人员没有动力扩展他们的课程(Kolachalama 和 Garg,2018 年)。随着对额外学术科目的需求和不断增长的生物医学知识体系,医学院在当前框架下已经难以维持其课程设置。医学院缺乏教授这些内容所需的教师专业知识,这使这一问题更加严重,这些内容主要在计算机科学、数学和工程学院教授(Kolachalama 和 Garg,2018 年)。尽管人工智能技术在医学领域迅速发展,有可能彻底改变整个医学教育,但人工智能在黎巴嫩医学中的应用仍然有限,并且在某些临床和外科领域受到限制,例如机器人技术(Labban 等人,2021 年)。同样,医学教育课程提供与人工智能相关的教育内容有限,这可能导致知识受限和对该主题的消极态度。多项研究评估了来自世界各地(包括中东地区)医学生对人工智能的知识和态度(Gong 等人,2019 年;Pinto Dos Santos 等人,2019 年;Sit 等人,2020 年;Ahmed 等人,2022 年;Al
临床实践中使用的医学图像是异构的,与学术研究中的扫描质量不同。在极端情况下,当解剖结构、伪影或成像参数不寻常或协议不同时,预处理会失效。最需要对这些变化具有鲁棒性的方法。提出了一种新颖的深度学习方法,用于快速准确地将人脑分割成 132 个区域。所提出的模型使用高效的 U-Net 类网络,并受益于不同视图的交点和层次关系,用于在端到端训练期间融合正交 2D 平面和大脑标签。部署弱监督学习,利用部分标记数据进行全脑分割和颅内容积 (ICV) 估计。此外,数据增强用于通过生成具有高可变性的真实脑部扫描来扩展磁共振成像 (MRI) 数据,以便在保护数据隐私的同时对模型进行稳健的训练。所提出的方法可以应用于脑部 MRI 数据,包括头骨或任何其他工件,而无需对图像进行预处理或降低性能。使用不同的图谱进行了几次实验,以评估训练模型与最先进模型相比的分割性能,结果表明,与现有方法相比,所提出的模型在不同域内和域间数据集上的分割精度和稳健性更高。
Ashish Sabharwal Allen 人工智能研究所 Bo Liu 奥本大学 Aaditya Ramdas、Kun Zhang 卡内基梅隆大学 Sebastien Destercke 法国国家科学研究院 Elias Bareinboim 哥伦比亚大学 Alexander Shekhovtsov 布拉格捷克技术大学 Linda van der Gaag Dalle Molle Molle 人工智能研究所 Dalle Marco | Artificialy Nevena Lazic、Silvia Chiappa、Theophane Weber、Tim Genewein DeepMind Sach Mukherjee DZNE |剑桥大学 Mykola Pechenizkiy、Robert Peharz 埃因霍温理工大学 Christina Heinze-Deml、Fanny Yang、Niao He 苏黎世联邦理工学院 Zoltan Szabo 巴黎综合理工学院 Mats J. Stensrud 巴黎联邦综合理工学院 德国 Magers A 中心 Jausanne |柏林工业大学 Branislav Kveton 谷歌研究中心 Aurelie Lozano IBM 研究中心 Jin Tian 爱荷华州立大学 Vanessa Didelez 不来梅莱布尼茨研究所 Vasilis Syrgkanis 微软研究中心 Rajesh Ranganath 纽约大学 Fabio Ramos NVIDIA |悉尼大学 Johannes Textor、Tom Claassen、Tom Heskes 拉德堡德大学 Qiang Ji 伦斯勒理工学院 Shohei Shimizu 滋贺大学 | RIKEN Mathias Drton 慕尼黑工业大学 Uri Shalit Technion Amir Globerson 特拉维夫大学 | Google Vibhav Gogate 德克萨斯大学达拉斯分校 Alessio Benavoli 都柏林圣三一学院 Kristian Kersting 达姆施塔特工业大学 Anna Helena Reali Costa、Fabio Cozman 圣保罗大学 Piotr Zwiernik 庞贝大学 詹姆斯·席尔瓦大学学院 Davido Fabra Eric Nalisnick 不列颠哥伦比亚大学 詹姆斯·席尔瓦大学学院 Bricardo、欧文·尼尔斯 Richard Hansen 哥本哈根大学 Aapo Hyvarinen、Mikko Koivisto 赫尔辛基大学 Benjamin Marlin 马萨诸塞大学阿默斯特分校 Robin Evans 牛津大学 Marco Valtorta 南卡罗来纳大学 Linbo Wang 多伦多大学 Alex Luedtke、Emilija Perkovic、Thomas Washington S. Richardson 大学
摘要:可解释人工智能 (XAI) 特性在深度学习模型的仇恨言论检测中具有灵活和多方面的潜力。本研究的目的是解释和说明复杂人工智能 (AI) 模型做出的决策,以了解这些模型的决策过程。作为本研究的一部分,我们采用了两个数据集来演示使用 XAI 进行仇恨言论检测。我们进行了数据预处理,以清除数据中的任何不一致之处、清理推文文本、对文本进行标记和词形还原等。我们还简化了分类变量,以便生成干净的数据集用于训练目的。我们对数据集进行了探索性数据分析,以发现各种模式和见解。我们将各种预先存在的模型应用于 Google Jigsaw 数据集,例如决策树、k-最近邻、多项朴素贝叶斯、随机森林、逻辑回归和长短期记忆 (LSTM),其中 LSTM 的准确率达到 97.6%。将 LIME(局部可解释模型 - 不可知解释)等可解释方法应用于 HateXplain 数据集。创建了 BERT(来自 Transformer 的双向编码器表示)模型的变体,例如准确率为 93.55% 的 BERT + ANN(人工神经网络)和准确率为 93.67% 的 BERT + MLP(多层感知器),以在使用 ERASER(评估基本原理和简单英语推理)基准的可解释性方面取得良好的表现。
自深度学习革命以来,人工智能取得了长足进步,但人工智能系统仍然难以在其训练数据之外进行推断并适应新情况。为了获得灵感,我们将目光投向了科学领域,科学家们已经能够开发出表现出非凡推断能力的理论,有时甚至可以预测从未观察到的现象的存在。根据 David Deutsch 的说法,这种被他称为“延伸”的推断是由于科学理论难以改变。在本文中,我们研究了 Deutsch 的难以改变原则以及它与深度学习中更形式化的原则(如偏差-方差权衡和奥卡姆剃刀)的关系。我们区分了内部可变性(模型/理论在内部可以改变多少同时仍能产生相同的预测)和外部可变性(模型必须改变多少才能准确预测新的、超出分布的数据)。我们讨论了如何使用罗生门集的大小来测量内部变异性,以及如何使用柯尔莫哥洛夫复杂度来测量外部变异性。我们通过观察人脑来探索难以改变的解释在智力中扮演的角色,并区分大脑中的两个学习系统。第一个系统的运作方式类似于深度学习,可能构成了大多数感知和运动控制的基础,而第二个系统是一个更具创造性的系统,能够生成难以改变的世界解释。我们认为,弄清楚如何复制这个能够生成难以改变的解释的第二个系统是实现通用人工智能所需要解决的关键挑战。我们与波普尔认识论的框架取得了联系,该框架拒绝归纳,并断言知识产生是一个通过猜想和反驳进行的进化过程。
目前尚无明确的指南或经过验证的模型,无法使用人工智能 (AI) 方法监测社区中被隔离的 2019 年冠状病毒病 (COVID-19) 患者,以便及早发现其健康症状恶化。2021 年 9 月,西南悉尼 (SWS) 引入了一项新的护理机器人技术,该技术由悉尼的 AI 对话技术 Curious Thing (CT) 合作开发,用于管理大量被诊断为 COVID-19 且在家中隔离的低风险至中等风险患者。CT 界面按照本地制作的脚本通过手机与患者联系,以获取记录身体状况、健康和支持的信息。 2021 年 9 月 2 日至 12 月 14 日期间,护理机器人已与 6323 多名患者互动。人工智能辅助电话呼叫有效地识别了需要进一步支持的患者,通过远程监控病情较轻的患者节省了临床医生的时间,并使他们能够将更多时间花在危重患者身上,从而确保服务和供应资源能够用于最需要的人。参与策略确保了利益相关者支持这项技术,以满足已确定的患者群体的临床和福利需求。患者和医护人员的反馈都很积极,并为正在制定的以患者为中心的虚拟护理模式提供了参考。
摘要:目前,基于生物标志物的主观无症状阿尔茨海默病 (AD) 预测测试已用于研究。人工智能 (AI) 的新应用有望在数年内预测 AD 的发病时间,而无需确定生物标志物阈值。到目前为止,除了在我们仍然缺乏充分治疗的情况下为研究目的做出贡献外,很少有人关注 AI 给无症状个体的早期诊断带来的新的伦理挑战。本文旨在探讨 AI 辅助主观无症状个体 AD 预测的伦理论点及其伦理影响。伦理评估基于系统的文献检索。对 18 篇纳入的出版物进行了归纳性主题分析。伦理框架包括自主、善意、非恶意和正义原则。向无症状个体提供预测测试的原因是知情权、风险收益评估的积极平衡以及未来规划的机会。反对的理由包括缺乏改善病情的治疗、人工智能辅助预测的准确性和可解释性、不知情权以及对社会权利的威胁。我们得出的结论是,为无症状个体提供早期诊断存在严重的伦理问题,而人工智能的应用引发的问题加剧了已知的问题。尽管如此,症状前检测应仅在要求时提供,以避免造成伤害。我们建议为医生开展沟通人工智能辅助预测的培训。
根据世界卫生组织的数据,新型冠状病毒病(COVID-10)曾是一个公共卫生问题,截至 2020 年 6 月 10 日,全球已有超过 710 万人感染,40 多万人死亡。在当前情况下,巴西和美国每天的新增病例和死亡人数都很高。因此,预测一周时间窗口内的新增病例数非常重要,这可以帮助公共卫生系统制定应对 COVID-19 的战略规划。预测人工智能(AI)模型的应用有可能处理像 COVID-19 这样的时间序列的困难动态行为。在本文中,贝叶斯回归神经网络、立体回归、k 最近邻、分位数随机森林和支持向量回归可单独使用,并结合最近的预处理变分模态分解(VMD)将时间序列分解为几个固有模态函数。所有 AI 技术均在时间序列预测任务中进行评估,预测巴西和美国五个州的累计 COVID-19 病例数提前一、三和六天,截至 2020 年 4 月 28 日,病例数较高。所有预测模型均采用先前累计的 COVID-19 病例数和每日温度和降水等外生变量作为输入。根据性能标准评估模型的有效性。一般而言,VMD 的混合在准确性方面优于单一预测模型,特别是当预测时间范围提前六天时,混合 VMD-单一模型在 70% 的案例中实现了更好的准确性。关于外生变量,作为预测变量的重要性排名从高到低依次为过去病例、温度和降水。因此,由于评估模型能够有效地预测长达六天的累计 COVID-19 病例数,因此
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.