摘要。我们提出了扩散汤,这是一种用于文本到图像生成的隔室化方法,该方法平均训练了在碎片数据上训练的扩散模型的权重。通过施工,我们的方法可以培训 - 免费的持续学习和学习,而没有其他内存或inctionce成本,因为可以通过重新体验来添加或删除与数据碎片相对应的模型。我们表明,从重量空间中的一个散布汤样品近似于组成数据集的分离的几何平均值,该数据集提供了抗MONTORIGATION GUARESES,并启用了零拍的样式混合。从经验上讲,扩散汤优于在所有数据碎片的结合下训练的帕拉贡模型,并在域分片数据上取得了30%的图像奖励(.34→.44),而IR的IR(.37→.59)在摄取数据上提高了59%。在这两种情况下,汤也以TIFA得分占上风(分别为85.5→86.5和85.6→86.8)。我们证明了鲁棒性的学习 - 在IR(.45→.44)中,任何单个域shorn仅降低了1%的性能 - 并验证我们对抗Memorization的实际数据的理论见解。最后,我们展示了扩散汤的能力,可以将不同碎片上固定的模型的独特样式融合在一起,从而导致零发的混合风格产生。
主要关键词