这是作者接受的稿件,未经编辑、格式化或最终修改。最终稿件将发表在即将出版的《英国科学哲学杂志》上,该杂志由芝加哥大学出版社代表英国科学哲学学会出版。引用或引用时请包含 DOI:https://doi.org/10.1086/714960 版权所有 2021 英国科学哲学学会。
算法和硬件的最新进展已经对机器学习产生了巨大的希望(ML),以成为复杂问题的几乎通用解决方案。这种热情迅速接管了医学研究,导致越来越多的出版物强调了ML的潜力,并伴随着越来越强烈的主张进入临床实践[1]。关于脑成像,通常是创新的领先者,这种发展背后的动机似乎很明显:MRI是高度标准化的,并且已经建立了数十年的受试者之间的分析。此外,几个大型和开放的数据集为模型培训提供了相对良好的资源[2]。精神病学也有临床需求:神经精神疾病是全球发病率和残疾调整后的生活年份的主要原因,因此,希望ML能够加速精神病学的诊断和疾病进度。尽管ML对精神病学有潜在的影响,但目前的状态和轨迹是否与高期望和经常大胆的诺言保持一致,这似乎是有争议的[3]。尤其是在精神病学中,需要更多考虑先决条件和更多方向来翻译
摘要黑匣子算法在医学中的使用引起了学术界的不透明和缺乏可信赖性的关注。关注潜在的偏见,问责制和责任,患者自主权和通过黑匣子算法疏散的信任疏散。这些担忧将认知问题与规范问题联系起来。在本文中,我们概述了黑匣子算法出于认知的原因比许多学者似乎相信的要小。通过概述并非总是需要更多的算法透明度,并且通过解释计算过程对人类的方法论确实是不透明的,我们认为算法的可靠性提供了信任医疗人工智能(AI)的结果的原因。为此,我们解释了如何不需要透明度并支持算法的可靠性的计算可靠性,这证明了将医疗AI的结果信任的信念是合理的。我们还认为,即使结果值得信赖,黑匣子算法仍然存在一些道德问题。因此,从可靠指标中获得合理的知识是必要的,但不足以证明医生采取行动。这意味着需要对可靠算法的结果进行审议,以找出什么是理想的行动。因此,我们认为,这种挑战不应完全驳回黑匣子算法的使用,而应告知这些算法的设计和实施方式。训练医生以获取必要的技能和专业知识,并与医学信息学和数据科学家合作时,黑匣子算法可以有助于改善医疗服务。
推荐系统用于提供有关各种事项的相关建议。尽管这些系统是一个经典的研究主题,但知识仍然受到有关这些系统的公众舆论的限制。公众舆论也很重要,因为已知系统会引起各种问题。为此,本文对普通公民,民间社会团体,企业以及其他对欧洲推荐系统的看法进行了定性分析。所检查的数据集是基于对最近在欧盟(EU)颁布的有关数字服务法(DSA)的咨询的答案。因此,本文不仅有助于有关调节新技术和在线平台的紧迫问题,而且还揭示了有关DSA决策的见解。根据定性结果,欧洲人通常对推荐系统及其建议的质量有负面看法。该系统被广泛认为侵犯了隐私和其他基本权利。根据许多欧洲人的说法,这些也会引起各种社会问题,包括对民主的威胁。此外,由于缺乏适当的执法,通常认为欧盟中的现有法规失败了。咨询的受访者提出了许多建议,以改善局势,但其中只有少数最终达到了DSA。
我的主要研究兴趣是临床预测模型。这些模型可以估计一个人患上某些尚未确诊的疾病的风险,或者未来患病或病情恶化的风险。不幸的是,这些研究也未能免受上述报告质量不佳的影响,而且经常被标记为有问题。2 我对临床预测模型的糟糕报告感到沮丧,因此在 2010 年,我与 Carl Moons、Hans Reitsma 和已故的 Doug Altman(EQUATOR 网络创始人)一起发起了一项旨在改善这种情况的倡议。我们制定了 TRIPOD(个体预后或诊断多变量预测模型的透明报告)报告建议,并于 2015 年发布。3 4 这些建议侧重于使用基于回归的方法开发的模型,因为这些是当时流行的方法。
训练尖端的深度神经网络需要大量数据,而使用当前方法进行重新训练的负担仍然很大。在对深度学习网络进行训练和重新训练以执行涉及复杂物理的不同任务后,莱斯大学的研究人员使用傅里叶分析比较了两次迭代中的所有 40,000 个内核,发现超过 99% 是相似的。此图显示了重新训练前(左)和重新训练后(右)差异最大的四个内核的傅里叶光谱。研究结果表明,该方法有可能找到更有效的重新训练路径,并且需要的数据要少得多。图片来源:P. Hassanzadeh/莱斯大学