Loading...
机构名称:
¥ 6.0

免责声明:本报告旨在作为参考文件,为内部安全领域的人工智能问责制奠定基础。它定义了 AP4AI 联盟在项目第一阶段与国际人工智能专家协商后制定的 12 项初始 AP4AI 原则,并结合了对过去六年发布的现有人工智能框架的审查。该报告进一步介绍了方法论,并概述了项目即将采取的步骤。这份第一份总结报告进一步展示了项目的进展情况,并作为继续收集相关领域专家反馈和见解的工具。该项目获得了谢菲尔德哈勒姆大学大学伦理委员会的伦理批准,CENTRIC 是 AP4AI 项目的学术负责人。所有参与者都被要求在提供书面意见和参加咨询会议之前给予书面知情同意。知情同意还要求明确允许记录咨询会议、转录和以匿名形式使用引述。 AP4AI 项目由 CENTRIC 和欧洲刑警组织联合开展,并得到欧洲司法组织、EUAA 和 CEPOL 的支持,欧盟基本权利局 (FRA) 提供建议和贡献,在欧盟内部安全创新中心的框架内开展。本报告中陈述的研究成果、意见、批判性思考、结论和建议不一定反映 CENTRIC、欧洲刑警组织、FRA、CEPOL、EUAA 或欧洲司法组织的观点。

内部安全领域人工智能问责原则 (AP4AI)

内部安全领域人工智能问责原则 (AP4AI)PDF文件第1页

内部安全领域人工智能问责原则 (AP4AI)PDF文件第2页

内部安全领域人工智能问责原则 (AP4AI)PDF文件第3页

内部安全领域人工智能问责原则 (AP4AI)PDF文件第4页

内部安全领域人工智能问责原则 (AP4AI)PDF文件第5页