Loading...
机构名称:
¥ 4.0

虽然并非所有人工智能系统都对个人造成潜在危害,但公共和私营部门使用人工智能系统的例子都造成了直接或间接危害。问题是 AIA 是否以及如何减轻公共或私营部门人工智能造成的风险,以及它如何与欧盟法律的其他来源重叠或交织在一起。这项研究发现,公共和私营部门的人工智能使用之间存在风险趋同。随着服务提供商和用户之间的界限变得模糊,并且人工智能越来越成为“系统的系统”的一部分,对人工智能系统进行明确的风险评估将变得越来越具有挑战性。此外,该研究还记录了一般和部门监管方法之间的紧张关系(在适当的情况下)。AIA 提出了实现 AI 自我监管的程序步骤,与《通用数据保护条例》(GDPR)的设置非常一致,同时提出了实质性措施,例如禁止使用 AI 应用程序列表。该列表的治理和高风险应用程序或系统的分类可能会导致对 AI 系统的解读和发展产生分歧。此外,AIA 中提出的具体风险评估可能会导致风险分类产生分歧,例如,需要根据 GDPR 的要求对同一 AI 系统的数据进行风险评估。通过更好地协调数字(和基于 AI)系统的风险评估工作,可以实现监管一致性。

人工智能法案草案中的监管分歧——欧洲议会

人工智能法案草案中的监管分歧——欧洲议会PDF文件第1页

人工智能法案草案中的监管分歧——欧洲议会PDF文件第2页

人工智能法案草案中的监管分歧——欧洲议会PDF文件第3页

人工智能法案草案中的监管分歧——欧洲议会PDF文件第4页

人工智能法案草案中的监管分歧——欧洲议会PDF文件第5页

相关文件推荐