假设如果被证明确实不可能使一个人工智能变得安全,那么就不需要分析更复杂的多 ASI 世界的情况了。超级智能的潜在控制方法被分为两大类,即基于能力控制和动机控制的方法 [59]。能力控制方法试图通过将 ASI 系统置于受限环境中 [38, 60–62]、添加关闭机制 [63, 64] 或绊线 [38] 来限制 ASI 系统能够造成的任何伤害。动机控制方法试图将 ASI 设计为即使在没有能力控制器的情况下也不会造成伤害。人们普遍认为,能力控制方法充其量只是临时的安全措施,并不是 ASI 控制问题的长期解决方案 [59]。也可能需要在设计/实施阶段添加动机控制,而不是在部署之后。