技术不仅仅是出现。它们是设计的,这些设计选择会影响技术接触的一切。然而,除非法律问题直接暗示技术设计,否则法院不太可能审问它。在本文中,我们使用机器学习中的示例来证明即使在法律问题不直接涉及技术的情况下,设计选择也很重要。我们首先要描述正式抽象,这是计算机科学中一种基本设计技术,它将系统和子系统完全由它们的输入,输出以及将输入转化为输出的关系完全定义。我们展示了该技术如何使所产生的技术对与法院自己的裁决竞争的责任和可知性有效主张。我们进一步表明,随着时间的流逝,这些主张是无形的。因此,我们认为法院必须发掘或解构原始设计选择,以便在给定案件中理解法律主张,即使那些不面对他们的案件似乎与技术设计有关。当然,有一个合理的担忧,即法院没有能力或不是对技术设计做出判断的最佳场所。
摘要 2022 年,人工智能 (AI) 渗透到人类社会,而理解其某些方面的工作方式却异常困难。有一项运动——可解释人工智能 (XAI)——旨在开发新方法来解释人工智能系统的行为。我们旨在强调 XAI 的一个重要哲学意义——它在消除模糊性方面发挥着作用。为了说明这一点,请考虑在被称为监视资本主义的领域中使用人工智能,这已使人类迅速获得了识别和分类大多数使用语言场合的能力。我们表明,这种信息的可知性与某种模糊性理论——认识论——对模糊性的说法是不相容的。我们认为,认识论者应对这一威胁的一种方式是声称这一过程带来了模糊性的终结。然而,我们提出了另一种解释,即认识论是错误的,但还有一种较弱的学说,我们称之为技术认识论,即认为模糊性是由于对语言用法的无知造成的,但这种无知是可以克服的。这个想法是,了解更多相关数据以及如何处理这些数据,使我们能够更自信、更准确地了解单词和句子的语义值。最后,我们认为,除非所涉及的人工智能能够用人类可以理解的术语来解释,否则人类可能不会相信未来的人工智能算法告诉我们关于模糊词语的明确界限。也就是说,如果人们要接受人工智能可以告诉他们词语含义的明确界限,那么它就必须是可理解人工智能。