许多人工智能系统本不应该存在。它们需要抵抗。例如,警方在公共场所使用实时面部识别技术,在世界各地都受到了急需的抵抗,抵抗方式多种多样。在英国,南威尔士警察局被起诉,其使用面部识别技术被宣布为非法(但仅在上诉后),而苏格兰议会收到了来自学者(包括我自己)[16]、智库和倡导组织的证据,这些证据说服司法小组委员会向苏格兰警察局施压,要求其将面部识别技术从其未来计划中移除。与此同时,随着面部识别技术在全国范围内的持续使用,WebRoots Democracy [17] 等智库与英国的边缘化社区进行了更直接的接触,以展示种族主义言论和该技术的影响。本文利用了各种拒绝来源以及来自研究人员、智库、倡导组织和媒体的其他资源来构建警方使用面部识别的示例图。许多不同角度的呼声都要求停止资助或解散特定的人工智能系统,在某些特定领域(通常是权力下放或地方层面),它们正在获得政治影响力。在关于伦敦大都会警察局声称继续部署人工智能的例外情况的 Twitter 对话中,自由人权组织的 Hannah Couchman 说,只需“将其扔进垃圾箱” [8]。但我们如何提出将人工智能扔进垃圾箱的理由?我们可以开发哪些工具来绘制不同的方法、问题和叙述,以说服决策者放弃这种或任何其他不公平或不公正的人工智能?