简介批判性和女性主义的计算历史开始探索种族、阶级、性别、文化和其他社会因素如何影响计算技术的发展,以及这些技术如何反过来帮助构建和执行文化和社会规范。近期的历史(Hicks 2017;Rankin 2018)将计算历史描绘成深深嵌入社会、政治和文化力量的网络之中,这些力量塑造了劳动力、获取形式和围绕计算技术的想象。本文旨在补充这些批判性历史,并以越来越多的“批判性人工智能研究”文献为基础,这些文献从社会文化背景和含义的角度考虑特定的人工智能 (AI) 技术和工艺。从历史的角度研究人工智能提供了一种超越技术规范来考虑算法和人工智能技术的方法,而是将它们分析为受物质、地理、政治和社会力量塑造的复杂社会技术组合。
早在几十年前,人们就想到了拥有自主能力和智能并且不受人类指示或监督的机器人。这些(当时)未来主义的想法被逐渐融入到非常现实的当前技术中。结合人工智能(“AI”)技术,产品和机器颠覆了代理的概念以及人类在制造和服务提供中的参与。当没有明显的代理或人格,或者当行为几乎本质上不可预见时,应如何构建责任?更具体地说,在基于人工智能的机器人的背景下,产品责任或其他侵权责任模型是否适合新框架?本文旨在解释为什么现行的法律和学说(例如产品责任和过失)不能为这些技术进步提供充分的框架,主要是因为缺乏人格、代理以及无法预测和解释机器人行为。本文从具体理论出发,还指出,三种主要责任制度(严格责任、过失和无过错强制保险)均无法充分解决人工智能机器人面临的挑战。最终,本文旨在提出补充规则,这些规则与现有的责任模型一起,可以提供更适合人工智能机器人的法律结构。这些补充规则将起到准安全港或预定的注意水平的作用。满足这些规则将把负担转移回当前的侵权法理论。不符合这些规则将导致责任。这些安全港可能包括监控义务、内置紧急制动以及持续的支持和修补义务。论点是,这些补充规则可以作为推定过失的基础,补充现有的责任模型。如果被采纳,它们可以建立明确的规则或最佳实践,确定人工智能机器人的设计者、操作者和最终用户的潜在责任范围。
