• 为“不可接受的”和有限风险的人工智能系统引入强大且一致的更新机制,以便随着技术的发展,可以更新属于这些风险类别的系统列表,使用目前提出的将新的高风险系统添加到附件三(见第十一篇章)的相同更新机制。这必须允许将新系统指定为构成不可接受的风险,因此归类为禁止的做法(第二篇章第 5 条),或构成有限风险/操纵风险(第四篇章第 52 条),因此要承担额外的透明度义务; • 分别在第 5 条和第 52 条下列出“不可接受的”和有限风险的人工智能系统的标准清单,以促进更新过程,为人工智能开发者提供法律确定性,并通过确保受影响的个人免受危险和潜在操纵的人工智能应用的侵害来增进信任; • 确保附件三中列出的高风险“区域”(即八个区域标题)可以根据第 XI 章机制进行更新或修改,以允许修改现有区域标题的范围,并将新的区域标题纳入“独立”高风险人工智能系统的范围; • 扩展附件三,以包括更全面的高风险系统列表,例如: ◦ 将区域标题 1 扩展为所有使用物理、生理、行为
主要关键词