获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
摘要 人工智能 (AI) 中的认识论不透明问题通常被描述为不透明算法导致不透明模型的问题。然而,人工智能模型的透明度不应被视为其算法属性的绝对衡量标准,而应被视为模型对人类用户的可理解程度。它的认识论相关元素将在计算层面之上和之外的各个层面上指定。为了阐明这一说法,我首先将计算机模型及其基于算法的普遍性主张与控制论风格的模拟模型及其对模型元素和目标系统之间结构同构的主张进行对比(收录于:Black,模型与隐喻,1962 年)。模拟模型旨在实现感知或概念上可访问的模型-目标关系,而计算机模型则导致这些关系中一种特定的不确定性,需要以特定的方式解决。然后,我对两种当代人工智能方法进行了比较,这两种方法虽然相关,但明显与上述建模范式一致,并代表了实现模型可理解性的不同策略:深度神经网络和预测处理。我得出的结论是,它们各自的认知透明程度主要取决于建模的根本目的,而不是它们的计算属性。