人工智能政策应体现基于风险的方法。没有一种万能的解决方案可以解决所有人工智能系统的问题。问责措施应以人工智能系统的类型为基础,并应与每个系统的潜在风险或这些系统的预期用途成比例。对于大多数人工智能系统,自我评估和透明度将提供必要的问责制,同时避免对创新和中小企业造成过度负担。虽然即使是低风险的人工智能系统也必须负责任地开发和使用,但模糊、过于宽泛或不必要的繁琐规定将不可避免地阻碍人工智能公司的创新,使它们无法跟上外国竞争对手的步伐,阻止中小企业与大型科技公司竞争,并损害美国人获取可能对其日常生活产生积极影响的技术的能力。本白皮书阐述了 SIIA 对人工智能政策领域紧迫问题的立场。