• 确保重点关注最广泛和最严重的社会损害可能发生的地方,特别是在有关人工智能系统定义、人工智能价值链中不同参与者之间的责任分配、确定禁止行为的标准以及高风险系统分类的提案中。• 使用人工智能高级专家组提出的定义,重点关注表现出智能行为并采取一定程度自主行动的人工智能系统。目前提出的“人工智能系统”定义过于宽泛。• 完善高风险人工智能的拟议分类规则,以确保与附件二中的行业立法保持一致。AIA 应仅在存在明显监管差距的领域监管高风险人工智能应用。• 重新评估和明确人工智能价值链中不同参与者的责任,以确保将义务分配给能够确保合规的参与者。• 确保拟议的合规框架是相称且灵活的。• 确保欧盟在人工智能方面的标准化活动与国际努力保持一致。• 支持和嵌入沙盒方案的使用,并制定完善的标准,以确保企业(尤其是中小企业)能够有效访问。支持受控实验以评估(尚未预见的)风险并找出潜在的法律障碍和不一致之处。• 支持并促进国家和欧盟层面相关监管机构之间的有效合作,以防止出现不同的意见、解释和决定以及内部市场的分裂。