Loading...
机构名称:
¥ 2.0

摘要 2022 年,人工智能 (AI) 渗透到人类社会,而理解其某些方面的工作方式却异常困难。有一项运动——可解释人工智能 (XAI)——旨在开发新方法来解释人工智能系统的行为。我们旨在强调 XAI 的一个重要哲学意义——它在消除模糊性方面发挥着作用。为了说明这一点,请考虑在被称为监视资本主义的领域中使用人工智能,这已使人类迅速获得了识别和分类大多数使用语言场合的能力。我们表明,这种信息的可知性与某种模糊性理论——认识论——对模糊性的说法是不相容的。我们认为,认识论者应对这一威胁的一种方式是声称这一过程带来了模糊性的终结。然而,我们提出了另一种解释,即认识论是错误的,但还有一种较弱的学说,我们称之为技术认识论,即认为模糊性是由于对语言用法的无知造成的,但这种无知是可以克服的。这个想法是,了解更多相关数据以及如何处理这些数据,使我们能够更自信、更准确地了解单词和句子的语义值。最后,我们认为,除非所涉及的人工智能能够用人类可以理解的术语来解释,否则人类可能不会相信未来的人工智能算法告诉我们关于模糊词语的明确界限。也就是说,如果人们要接受人工智能可以告诉他们词语含义的明确界限,那么它就必须是可理解人工智能。

模糊性的终结:技术认识论、监控资本主义和可解释的人工智能

模糊性的终结:技术认识论、监控资本主义和可解释的人工智能PDF文件第1页

模糊性的终结:技术认识论、监控资本主义和可解释的人工智能PDF文件第2页

模糊性的终结:技术认识论、监控资本主义和可解释的人工智能PDF文件第3页

模糊性的终结:技术认识论、监控资本主义和可解释的人工智能PDF文件第4页

模糊性的终结:技术认识论、监控资本主义和可解释的人工智能PDF文件第5页

相关文件推荐

2020 年
¥10.0
2024 年
¥1.0
2024 年
¥1.0