随着越来越多的公司和政府构建和使用机器学习模型来实现决策自动化,在部署这些模型后,监控和评估这些模型行为的需求也日益增长。CognitiveScale 团队开发了一个名为 Cortex Certifai 的工具包来满足这一需求。Cortex Certifai 是一个框架,用于评估在表格数据上训练的任何分类或回归模型的稳健性、公平性和可解释性,而无需访问其内部工作原理。此外,Cortex Certifai 允许用户沿着这些不同的轴比较模型,并且只需要 1) 对模型的查询访问和 2) “评估”数据集。在其基础上,Cortex Certifai 生成反事实解释,它们是接近输入数据点但在模型预测方面不同的合成数据点。然后,该工具利用这些反事实解释的特征来分析所提供模型的不同方面,并提供与各种不同利益相关者(例如,模型开发人员、风险分析师、合规官)相关的评估。可以使用命令行界面 (CLI)、jupyter 笔记本或云端配置和执行 Cortex Certifai,结果记录在 JSON 文件中,并可在交互式控制台中可视化。使用这些报告,利益相关者可以了解、监控和建立对其 AI 系统的信任。在本文中,我们简要概述了 Cortex Certifai 的功能演示。
主要关键词