UICoder: Finetuning Large Language Models to Generate User Interface Code through Automated Feedback
大型语言模型(LLMS)难以始终生成编译并产生视觉相关设计的UI代码。现有的改善发电的方法取决于昂贵的人类反馈或提炼专有模型。在本文中,我们探讨了自动反馈(编译器和多模式模型)的使用来指导LLMS生成高质量的UI代码。我们的方法从现有的LLM开始,并通过使用原始模型自我生成大型合成数据集来迭代地产生改进的模型,并应用自动化工具来积极过滤,得分和删除…
DiceHuBERT: Distilling HuBERT with a Self-Supervised Learning Objective
我们介绍了Dicehubert,这是一种用于压缩Hubert的知识蒸馏框架,Hubert是一种广泛使用的自我监督学习(SSL)的语音基础模型。与依赖于层次和学生模型之间的特征映射的现有蒸馏方法不同,Dicehubert通过直接用学生模型直接替换原始模型来利用Hubert的迭代自我鉴定机制。这种替代品允许使用与培训前使用相同的SSL目标对学生进行培训,从而消除了对其他模块或建筑约束的需求……