Loading...
机构名称:
¥ 2.0

人们通常必须在太复杂的环境中做出决定,无法理解。政策制定者评估其潜在治疗效果的社会计划是异质性,高度非线性或溢出的社会计划。监管机构为复杂的人工智能模型设计规则,而在社会中部署了这些模型,而没有真正知道这些模型的工作方式。对决策者的有用是多么有用,可以理解其环境的解释?在本文中,我们通过考虑决策者(此后DM)的问题来研究这个问题,该决策者遇到了一个太复杂而无法理解的模型,而必须依靠对其进行解释。DM的收益取决于其行动和世界状态,在这些行动和输入中描述了后者。输入遵循已知分布,单个真实模型指定输入和输出之间的关系。例如,这种真实的模型可能是自然界中发生的相关数据生成过程(DGP),或者是由复杂的人工系统(例如大型统计或人工智能(AI)模型)引起的DGP。我们设置的关键新颖特征是,真实模型的空间比DM可以理解的可理解模型的空间大得多。例如,真实模型的空间可能包含所有深神经网络,但是可理解模型的空间可能仅包含n级多项式。要使DM将有关真实模型的信息合并到其选择的选择中,必须首先通过将其映射到可理解的模型来解释真实模型。同样,regu-将重点放在DM中掩盖模型的主要因素上,我们抽象出可能在此解释过程中涉及的任何抽样误差。我们需要遵守两个标准的真实模型空间和可理解模型的空间(我们称为解释器)之间的映射。首先,如果真实模型已经可以理解,则解释器不应用不同的模型来解释它。第二,如果真实模型是由独立于状态的随机设备生成的两个模型的混合物(例如,一个模型持有一半的时间;另一个模型,另一半),则真实模型的解释应该是这两个模型的解释的混合。一起,这些标准等于解释器是对可理解模型空间的真实模型的线性投影。此类包含用于解释模型的大多数工具,包括政策评估中的线性回归和机器学习中的本地近似值。本文的设置捕捉了许多情况,在这些情况下,决策者面对需要解释的符合模型。,例如,决策者经常评估其治疗效果(输出)取决于受影响人群(输入)的人口特征(输入)(真正的模型),而决策者必须选择要实施的程序(行动)。

解释模型

解释模型PDF文件第1页

解释模型PDF文件第2页

解释模型PDF文件第3页

解释模型PDF文件第4页

解释模型PDF文件第5页