视觉不仅可以检测和识别物体,还可以对导致我们看到的光图案的底层场景结构进行丰富的推断。反转生成模型或“综合分析”提供了一种可能的解决方案,但其机械实现通常对于在线感知来说太慢,并且它们与神经回路的映射仍不清楚。在这里,我们提出了一种神经上合理的高效逆向图形模型,并在人脸识别领域对其进行了测试。该模型基于一个深度神经网络,该网络可以学习在一次快速前馈过程中反转三维人脸图形程序。它定性和定量地解释了人类行为,包括经典的“空心脸”错觉,并直接映射到灵长类动物大脑中专门的面部处理电路上。与最先进的计算机视觉模型相比,该模型更适合行为和神经数据,并提出了一种可解释的逆向工程来解释大脑如何将图像转化为感知。