大型语言模型(LLMS)最近在各种任务中表现出了高功能,尤其是在开放式文本生成中,如Chatgpt(OpenAI,2023a)和其他模型所示(OpenAI,2023b; Touvron等>,2023a,b;江等。,2023)。在开放式一代中,LLMS必须以类似人类的风格产生正确的答案。多亏了缩放法(Kaplan等人。,2020年; Wei等人。,2022; Gunasekar等。,2023),这项和许多其他任务得到了显着改进。评估LLMS的开放式一代对于他们的发展而言是挑战的。最可靠的评估方法是人类的判断,例如在聊天机器人领域(Chiang等人,2024)。但是,开放式一代任务缺乏基本真理和清晰的评估客观标准。最近的llm-as-a-a-a-a判断基准(Zheng等人,2023),高端LLM取代了Human法官,部分解决了此问题,但有
表示学习被广泛用于观察数据的因果量(例如,有条件的平均治疗效应)。尽管现有的表示学习方法具有允许端到端学习的好处,但他们没有Neyman-Ottrol-ottrodenal学习者的理论特性,例如Double Ro-Busberness和Quasi-Oracle效率。此外,这种表示的学习方法通常采用诸如平衡之类的规范约束,甚至可能导致估计不一致。在本文中,我们提出了一类新型的Neyman-Ottrodonal学习者,以在代表水平上定义的因果数量,我们称之为或称为校友。我们的旅行者具有几个实际的优势:它们允许基于任何学习的表示形式对因果量进行一致的估计,同时提供了有利的理论属性,包括双重鲁棒性和准门的效率。在多个实验中,我们表明,在某些规律性条件下,我们的或学习者改善了现有的表示学习方法并实现最先进的绩效。据我们所知,我们的或学习者是第一批提供代表学习方法的统一框架,而Neyman-ottrol-ottrodenal学习者进行因果量估计。