欧盟的《人工智能法案》为欧盟人工智能 (AI) 系统的开发、部署和使用制定了道德准则和监管框架。在本白皮书中,我们概述了《欧盟人工智能法案》中概述的关键条款,涉及风险分类、利益相关者考虑因素和要求,特别关注安全关键且高风险的人工智能系统。在《欧盟人工智能法案》的范围内,人工智能系统根据风险等级进行分类,从最小风险到不可接受的风险,每个风险都有相应的监管义务。高风险人工智能系统受到严格的要求,涵盖风险管理、数据治理、透明度和人工监督。本白皮书深入探讨了《欧盟人工智能法案》第 9 至 15 条的具体内容,涵盖了高风险人工智能系统的要求,同时也确定了与现有安全标准相关的差距。我们提出了一个框架来弥补这些差距,该框架通过从基于合同的设计启发的欧盟人工智能法案中得出具体要求。我们利用我们在可信赖的人工智能和安全方面的专业知识来开发一个框架,用于推导机器学习 (ML) 系统通用属性的论证树。我们在各个行业的三个实际用例上演示了这个框架。我们的工作说明了汽车、工业自动化和医疗保健等安全关键领域的人工智能系统如何在遵守道德原则的同时满足监管标准。欧盟人工智能法案代表着朝着促进人工智能技术的信任、问责制和负责任的创新迈出了重要一步。通过遵循欧盟人工智能法案要求的系统验证流程,利益相关者可以满怀信心地驾驭复杂的人工智能领域,确保人工智能系统的道德开发和部署,同时维护人类的利益和价值观。