人工智能和机器学习中的解释性(AI/ML)正在成为学术研究的主要领域,并且是一个重大监管问题的主题。越来越多的人,党派,政府和民间社会团体正在达成共识,即AI/ML必须可以解释。在本文中,我们挑战了这一主要趋势。我们认为,要解释性成为道德要求,甚至更多地是为了成为法律要求 - 它应该满足某些当前无法使用的desiderata,甚至可能无法。,本文认为,当前的可解释AI/ML的盛行方法通常是(1)无法指导我们的行动和计划,(2)无法透明地透明透明的原因,而没有实施自动化的决定,并且(3)承销规范(道德和法律)判断>>