推进可解释人工智能
机构名称:
¥ 1.0

监管机构关注的一个领域和组织面临的一个问题是人工智能 (AI) 系统需要提高透明度和“可解释性”。因此,一系列学术、行业和政府举措旨在为新的法律要求提供实际背景,并帮助组织反驳有关人工智能系统不透明或充当“黑匣子”的指控。其中最新的一项是英国信息专员办公室 (ICO) 和艾伦图灵研究所合作开展的 Project explAIn 指南,该指南在行业咨询后于 2020 年 5 月发布。这旨在以符合法律要求以及技术和治理最佳实践的方式提供有关解释人工智能系统所做决策的实用建议。在这里,我们考虑了英国现有的一些可解释性法律要求,并探讨了该指南的主要要点。

推进可解释人工智能

推进可解释人工智能PDF文件第1页

推进可解释人工智能PDF文件第2页

推进可解释人工智能PDF文件第3页

推进可解释人工智能PDF文件第4页

推进可解释人工智能PDF文件第5页