GenCtrl——生成模型的形式可控性工具包

随着生成模型变得无处不在,迫切需要对生成过程进行细粒度控制。然而,虽然从提示到微调的受控生成方法激增,但一个基本问题仍未得到解答:这些模型首先真的是可控的吗?在这项工作中,我们提供了一个理论框架来正式回答这个问题。将人类模型交互视为一个控制过程,我们提出了一种新颖的算法来估计对话设置中的可控模型集。值得注意的是,我们对估计误差提供正式保证......

来源:Apple机器学习研究

随着生成模型变得无处不在,迫切需要对生成过程进行细粒度控制。然而,虽然从提示到微调的受控生成方法激增,但一个基本问题仍未得到解答:这些模型首先真的是可控的吗?在这项工作中,我们提供了一个理论框架来正式回答这个问题。将人类模型交互视为一个控制过程,我们提出了一种新颖的算法来估计对话设置中的可控模型集。值得注意的是,我们对估计误差作为样本复杂度的函数提供了形式保证:我们为无分布的可控集估计推导了可能近似正确的界限,除了输出有界性之外不采用任何假设,并且适用于任何黑盒非线性控制系统(即任何生成模型)。我们凭经验证明了控制对话过程中不同任务的理论框架,包括语言模型和文本到图像的生成。我们的结果表明,模型的可控性出奇地脆弱,并且高度依赖于实验设置。这凸显了严格的可控性分析的必要性,将重点从简单地尝试控制转移到首先了解其基本限制。

  • † 庞培法布拉大学
  • ‡ 斯坦福大学