各国政府都在研究可解释人工智能 (XAI) 的潜力,以应对人们对人工智能算法决策不透明性的批评。尽管 XAI 作为自动化决策的解决方案很有吸引力,但政府面临的挑战的棘手性使 XAI 的使用变得复杂。棘手性意味着定义问题的事实是模棱两可的,并且对解决此问题的规范标准没有达成共识。在这种情况下,使用算法可能会导致不信任。尽管有许多研究推动 XAI 技术的发展,但本文的重点是可解释性的策略。使用三个说明性案例来表明,公众通常不认为可解释的数据驱动决策是客观的。这种背景可能会引起强烈的动机去质疑和不信任人工智能的解释,结果遭到了社会的强烈抵制。为了克服 XAI 固有的问题,提出了针对决策的策略,以使社会接受基于人工智能的决策。我们建议采取可解释的决策和流程、与社会参与者共同制定决策、从工具性方法转向制度性方法、使用竞争性和价值敏感算法,并调动专业人士的隐性知识