现有的管理高级人工智能系统风险的策略通常侧重于影响开发哪些人工智能系统以及它们如何传播。然而,随着高级人工智能开发者数量的增长,这种方法变得越来越不可行,并且会阻碍有益的用例和有害的用例。作为回应,我们敦促采取一种补充方法:提高社会对高级人工智能的适应性,即减少给定人工智能能力在给定水平的传播所带来的预期负面影响。我们引入了一个概念框架,该框架有助于识别避免、防御和补救人工智能系统潜在有害用途的自适应干预措施,并以选举操纵、网络恐怖主义和人工智能决策者失去控制权为例进行了说明。我们讨论了社会可以实施的适应人工智能的三步循环。提高社会实施这一循环的能力可以增强其对高级人工智能的抵御能力。我们最后向政府、行业和第三方提出了具体的建议。