我们考虑在估计估计方程式中估计涉及依赖目标参数作为输入的高维滋扰函数的估计参数。一个中心示例是因果推理中(局部)分位处理效应((l)QTE)的效率估计方程,该方程涉及在分位数上评估的协方差累积分布函数以进行估计。基于估计的滋扰和插入估计值的现有方法,例如伪造的马克内斯学习(DML),我们需要我们在所有可能的输入中学习滋扰。对于(L)QTE,DML要求我们学习整个协变量累积分布函数。我们相反提出了局部付符的机器学习(LDML),该学习避免了此盗窃步骤,并且只需要在单个初始粗略猜测目标参数的情况下估算烦恼。对于(L)QTE,LDML仅涉及学习两个回归功能,这是机器学习方法的标准任务。我们证明,在LAX速率条件下,我们的估计器具有与使用未知的真实滋扰的不可行的估计器相同的渐近行为。因此,LDML显着实现了实际上可比性和理论上的效率估计因果推理中重要数量的效果,例如(l)QTES,当我们必须控制许多协变量和/或相关关系时,正如我们在经验研究中所证明的那样。
主要关键词