Loading...
机构名称:
¥ 1.0

摘要:与欧盟委员会提出的《人工智能法案》相关,执法和警察服务属于人工智能 (AI) 高风险领域的一部分。因此,在数字政府和高风险人工智能系统领域,存在着确保人工智能使用符合道德和社会方面的特殊责任。《人工智能法案》还对人工智能提出了可解释性要求,可以通过使用可解释人工智能 (XAI) 来满足这些要求。文献尚未涉及高风险领域执法和警察服务在遵守可解释性要求方面的特征。我们进行了 11 次专家访谈,并使用扎根理论方法建立了一个扎根模型,以说明执法和警察服务背景下的人工智能可解释性要求合规现象。我们讨论了该模型和结果如何对当局、政府、从业者和研究人员都有用。

政府中的人工智能:高风险人工智能可解释性研究

政府中的人工智能:高风险人工智能可解释性研究PDF文件第1页

政府中的人工智能:高风险人工智能可解释性研究PDF文件第2页

政府中的人工智能:高风险人工智能可解释性研究PDF文件第3页

政府中的人工智能:高风险人工智能可解释性研究PDF文件第4页

政府中的人工智能:高风险人工智能可解释性研究PDF文件第5页

相关文件推荐