我们引入了一个新颖的框架,将人类专业知识纳入算法预测中。我们的方法利用人类的判断来区分算法上无法区分的输入,或者“看起来相同”与预测算法“看起来相同”。我们认为,这种框架阐明了预测任务中人类协作的问题,因为专家通常通过借鉴算法培训数据中未编码的信息来形成判断。算法的不可区分性产生了自然测试,用于评估专家是否合并了这种“侧面信息”,并进一步提供了一种简单但原则上的方法,可选择性地将人类反馈纳入算法预测中。我们表明,这种方法可证明可以提高任何可行算法预测变量的性能,并精确地量化此改进。我们从经验上发现,尽管算法通常通常优于其人类的表现,但人类的判断可以改善对特定实例的算法预测(可以识别出来)。在X射线分类任务中,我们发现该子集占患者人群的近30%。我们的方法提供了一种自然的方式来揭示这种异质性并从而实现有效的人类协作。