引言 根据 CAHAI 的建议(见 CAHAI 于 2021 年 12 月通过的《基于欧洲委员会人权、民主和法治标准,人工智能法律框架的可能要素》第 45 至 53 段),秘书处正在制定一种方法,提供明确、具体和客观的标准来识别可能对享受人权、民主运作和遵守法治构成重大风险的人工智能系统或基于此类系统的组合技术。该方法将确保采用统一的方法来识别、分析和评估风险,并评估此类系统对享受人权、民主运作和遵守法治的影响。它在很大程度上可以基于 CAHAI 政策发展小组(PDG)的工作,特别是其关于人权影响评估的第一工作小组的工作,以及阿兰图灵研究所应欧洲委员会人工智能特设委员会(CAHAI)秘书处的要求编写的“人工智能系统的人权、民主和法治保障框架”文件中提出的想法。该模型应基于这样的假设:国内当局通常更有能力做出相关的监管选择,同时考虑到政治、经济、社会、技术和其他类型的背景,并且他们应该在这一领域享有一定的自由裁量权。从这个角度来看,该方法的作用是协助国内当局识别可能对享受人权、民主运作和遵守法治构成重大风险的人工智能系统或基于此类系统的组合技术,并帮助他们管理相关风险。该方法的另一个同样重要的方面是确保我们的方法与行业遵循的现有合规做法无缝兼容,这可通过与代表大型和中小型企业的相关利益攸关方进行磋商等方式实现。值得注意的是,具有法律约束力的文书还应要求未来的缔约方采取适当措施,特别是关于国内主管当局如何监督和控制相关行为者应用该方法以及对国家监督机构、人工智能提供商和人工智能用户的培训,以确保相关行为者能够应用该方法。一般方法 该方法应尽可能设计为“算法中立”和基于实践,以便能够最大限度地适应未来并包容不同的人工智能应用。然而,该模型需要对新型人工智能创新和用例的发展保持响应,并应被视为动态的,需要定期重新审视和重新评估。因此,选择将其放在未来法律文书的附录中,这将有助于未来对该方法进行修订。 方法论的关键要素 该方法可能由许多明确阐述且相互关联的流程和工具/步骤组成:
主要关键词