Loading...
机构名称:
¥ 3.0

在本文中,我将通过争论以下三个论文来对这个问题提供细微的回答:(i)对深度学习(DL)模型(适当地解释)在特定意义上具有重要意义,它使他们与许多(尽管并非全部)传统科学模型(包括计算机模拟(CSS))区分开来。(ii)XAI涉及两种不同种类的黑盒子,或不透明度,而减少一个则不必有助于减少另一个。这些可能被视为DL不透明度问题的两个维度 - 我将在下面进行确切的概念。(iii)这种不透明度和工具性的独特组合意味着我们通常不能期望了解数据成功的数据(决定性模式)的基本机制(决定性模式),并通过DL算法完全认可和预测。3特别是,当共同满足某些条件时,DL很有可能允许新发现,科学家将很难理解。本文的主要目标是从科学的观点哲学中,对DL革命或不断变化的科学的主张是有道理的。建立(i) - (iii)需要一些概念上的努力。首先,我将区分DNN是模型的三种感觉(2.1),并区分适合我的目的的含义。随后(Sects。2.3和2.4),然后我将确定相关的工具意识,以及为什么它使DL模型不言自明。在教派中。4,然后我将展示DNNS的工具性和不透明度如何导致发现与解释之间前所未有的差距。第3节将定义概念,并主张存在,并为DL的不透明度提供了两个维度;这意味着DNN是不透明的,而CSS的(知名)不透明度无法降低。,与DL在处理大数据方面的前所未有的成功一起,我称之为DL困境。

不透明度和深度学习困境的两个维度

不透明度和深度学习困境的两个维度PDF文件第1页

不透明度和深度学习困境的两个维度PDF文件第2页

不透明度和深度学习困境的两个维度PDF文件第3页

不透明度和深度学习困境的两个维度PDF文件第4页

不透明度和深度学习困境的两个维度PDF文件第5页