《联合国生物多样性公约》(CBD)及其协议是对现代生物技术的监督的首要工具,并且随着该领域的新发展而成功地适应了全球。今天的“生成”人工智能(AI)工具(以文本聊天机器人(例如Chatgpt)为知名人士)现在被应用于生成新颖的数字序列,用于转基因生物(GMOS)和蛋白质。这些模型是由大型数字技术公司开发的,经过大量数字DNA或蛋白质序列的培训,找到模式,并将其应用它们创建新颖的数字序列。这个新的行业被其倡导者称为“生物生物学”,并伴随着承诺,这种AI“生物设计”工具可以为更可持续的世界提供一系列技术。现在对生成生物学提出的主张回应了对先前转基因生物和第一代AI系统的猜测。随着新问题的出现,每个人都没有最初的商业炒作。
人类的决策。本论文依靠可解释的人工智能,通过使用几种最先进的不可知方法的改良,使心跳分类变得易于理解。为了解释时间序列分类器,提出了一种初步的分类法,并使用导数作为
功能性 ................................................................................................................ 59 结构性 ................................................................................................................ 60 规范性 ................................................................................................................ 60 个性化 ................................................................................................................ 61 预测性 ................................................................................................................ 62
机器学习算法现在能够执行先前由人类专家进行的评估(例如,医学诊断)。我们应该如何概念化人类评估和算法之间的差异,以及一个人何时偏爱另一个人?我们提出了一个框架,以检查两种评估形式之间的一个关键区别:机器学习算法是标准化的,修复了一组共同的协变量,以评估所有个人,而人类评估者则自定义了哪些协方差将获得每个人的协变量。我们的框架在具有高维数据的环境中定义和分析了这种自定义的优势(上下文的价值)。我们表明,除非代理对协变量的联合分布有精确的知识,否则其他协变量的好处通常超过上下文的价值。
作者按字母顺序列出。我们感谢Mario Curiki,Georgy Kalashnov和Ruying Gao的出色研究帮助。We thank Susan Athey, Simon Freyaldenhoven, Talia Gillis, Paul Goldsmith-Pinkham, Damian Kozbur, Danielle Li, Sendhil Mullainathan, Ashesh Rambachan, Amit Seru, Ken Singleton, PR Stark, Chenzi Xu, Louis Kaplow, Kathryn Spier, the FinRegLab team, and seminar and conference participants at Stanford, Yale, Harvard, Zurich, Oxford, the NBER Summer Institute, Stanford SITE, the New Perspectives on Consumer Behavior in Credit and Payments Markets Conference, the AEA Annual Meeting, the FTC, ENSAI, the OCC, EC, the Artificial Intelligence and Big Data in Finance Research (ABFR) Forum, NASMES, the Machine Learning in Economics Summer Institute, and the 2nd Zurich AI + Economics Workshop for helpful discussions and comments.我们感谢斯坦福大学以人工智能(HAI)和亚马逊网络服务的慷慨支持。任何错误或遗漏都是作者的责任。该手稿取代了一个早期版本,该版本已在EC'22上接受并呈现,其扩展摘要发表为:Blattner,Laura,Scott Nelson和Jann Spiess(2022)。解开黑匣子:调节算法决定。在第23届ACM经济学和计算会议论文集(EC'22),第559页。
摘要黑匣子算法在医学中的使用引起了学术界的不透明和缺乏可信赖性的关注。关注潜在的偏见,问责制和责任,患者自主权和通过黑匣子算法疏散的信任疏散。这些担忧将认知问题与规范问题联系起来。在本文中,我们概述了黑匣子算法出于认知的原因比许多学者似乎相信的要小。通过概述并非总是需要更多的算法透明度,并且通过解释计算过程对人类的方法论确实是不透明的,我们认为算法的可靠性提供了信任医疗人工智能(AI)的结果的原因。为此,我们解释了如何不需要透明度并支持算法的可靠性的计算可靠性,这证明了将医疗AI的结果信任的信念是合理的。我们还认为,即使结果值得信赖,黑匣子算法仍然存在一些道德问题。因此,从可靠指标中获得合理的知识是必要的,但不足以证明医生采取行动。这意味着需要对可靠算法的结果进行审议,以找出什么是理想的行动。因此,我们认为,这种挑战不应完全驳回黑匣子算法的使用,而应告知这些算法的设计和实施方式。训练医生以获取必要的技能和专业知识,并与医学信息学和数据科学家合作时,黑匣子算法可以有助于改善医疗服务。
© 2019 Infosys Limited,印度班加罗尔。保留所有权利。Infosys 认为本文件中的信息在发布之日是准确的;此类信息如有更改,恕不另行通知。Infosys 承认其他公司对本文件中提及的商标、产品名称和其他知识产权的所有权。除非明确允许,否则未经 Infosys Limited 和/或本文件项下任何指定知识产权持有人的事先许可,不得复制、存储在检索系统中或以任何形式或任何手段(电子、机械、印刷、影印、录制或其他方式)传输本文件或其任何部分。
背景人工智能在放射学中发挥着越来越重要的作用。然而,越来越多的情况是,重建决策已不再可能,尤其是在深度学习领域的新方法和强大方法的情况下。由此产生的模型在用户无法理解内部过程的情况下发挥了作用,并被用作所谓的黑匣子。特别是在医学等敏感领域,决策的可解释性至关重要,以便验证其正确性并评估替代方案。因此,正在积极研究阐明这些黑匣子。方法这篇评论文章介绍了可解释人工智能的不同方法及其优缺点。使用示例来说明所介绍的方法。这项研究旨在使读者能够更好地评估相应解释的局限性,当