摘要 本文介绍了利用量子计算进行参数高效微调 (PEFT) 的 Quantum-PEFT。与其他加性 PEFT 方法(例如低秩自适应 (LoRA))不同,Quantum-PEFT 利用底层的全秩但令人惊讶的参数高效的量子幺正参数化和交替纠缠。使用 Pauli 参数化时,可训练参数的数量仅随环境维度呈对数增长,而不是像基于 LoRA 的 PEFT 方法那样呈线性增长。因此,随着维度的增长,Quantum-PEFT 实现的可训练参数数量比最低秩的 LoRA 少得多,从而提高了参数效率,同时保持了有竞争力的性能。我们将 Quantum-PEFT 应用于语言和视觉中的几个迁移学习基准,显示出参数效率的显著优势。
个性化的大语言模型(LLMS)旨在针对单个用户偏好量身定制互动,内容和强调。虽然参数有效的微调(PEFT)方法在性能和概括方面表现出色,但它们是昂贵的,并且在单独使用时限制了公共利益。为此,我们赋予了个人化p iecs(p er -p cs)1,该框架使用户可以安全地共享和组装个性化的PEFT,从而有效地通过协作工作。p er -p cs涉及选择共享者,将其分解成碎片,并为每件作品进行训练大门。这些零件被添加到一个池中,tar-get用户可以使用其历史记录数据从中选择并组装个性化的PEFT。这种方法可以保留隐私,并启用精细颗粒的用户建模,而无需过多的存储和调查需求。实验结果表明,P er -P CS的表现优于非人性化和PEFT检索基线,在六个任务中提供了与OPPU相当的性能,其资源使用率显着较低。进一步分析强调了P er -P CS的鲁棒性涉及共享者计数和选择策略,分量共享比率以及计算时间和存储空间中的可扩展性。p er -P CS的模块化促进了安全的共享,从而使LLM人员通过协作努力更加高效,有效且可以广泛访问。
联邦学习(FL)已成为一种既定技术,旨在促进众多客户的隐私协作培训。,FL的新方法经常讨论他们的贡献,涉及小型深度学习模型,并专注于培训对客户的完整模型。在基础模型(FM)之后,对于许多深度学习应用而言,现实是不同的。典型地,FMS已经在各种任务中进行了预先训练,并且可以对数据集的明显小于全面模型培训所需的明显小的数据集进行微调。但是,访问此类数据集通常是具有挑战性的。根据其设计,FL可以帮助打开数据孤岛。在这项调查中,我们引入了一种关于计算和通信效率的新型分类法,这是在FL系统中使用FMS的重要要素。我们讨论了针对FL应用程序的参数有效微调(PEFT)的好处和背部,并详细介绍了FL框架与FMS合作的准备,并为如何评估FL以及隐私和PEFT的相互作用提供了有关如何评估属性模型的未来研究机会。
摘要分散模型(DMS)的最新发展使得能够产生惊人的高质量合成样品。最近的工作表明,差异模型产生的合成样本已在公共数据上进行了预培训,并在私人数据上完全构成了差异性隐私,可以培训下游的分类器,同时实现良好的隐私公用事业 - 公用事业贸易。然而,就记忆使用和计算而言,具有DP-SGD的如此大的分解模型完全需要资源。在这项工作中,我们使用具有不同隐私性的低维适应性(LODA)进行了划分模型的参数 - 有效的微调(PEFT)。我们使用MNIST和CIFAR-10数据集评估了所提出的方法,并证明这种有效的功能还可以为训练下游分类器培训有用的合成样品,并保证了隐私保护数据。我们的源代码将在GitHub上提供。
大型语言模型(LLM),例如GPT3.5,在理解和产生自然语言方面表现出非常熟练的熟练程度。另一方面,医疗助理具有为个人提供可观利益的潜力。但是,基于LLM的个性化医疗助理探索相对稀缺。通常,患者会根据其背景和偏好方式不同,这需要使以用户为导向的医疗助理进行任务。虽然可以完全训练LLM以实现此目标,但资源消耗是无法承受的。先前的研究探索了基于内存的方法,以增强对话中的新查询错误,以增强响应。我们认为,单纯的内存模块是不足的,并且充分训练LLM的成本可能过高。在这项研究中,我们提出了一种新型的计算仿生记忆机械,配备了一个有效的细调(PEFT)模式,以个性化医疗助手。为了鼓励对该领域的进一步研究,我们正在发布基于开源的语料库生成的新对话数据集和我们的实施代码1。
摘要。随着预训练基础模型规模的快速增长,参数有效的微调技术已引起了很大的关注,其中适配器调整是最广泛使用的。尽管达到了效率,但它仍然表现不佳,并且以增加参数的成本为代价而提高。最近的效力要么集中于培训多个适配器专家以提高模型容量,要么将修剪适配器提高以达到参数效率。然而,与原始适配器相比,两种方法都引入了更多参数,因此并非计算上有效。以此为动机,我们提出了对Dapters或Mosa的ixture ixture,作为一种新型的适配器调整方法,以完全释放适配器中每个参数的潜力。我们首先将标准适配器拆分为多个非重叠模块,然后随随随随随之而来的激活它们以进行稀疏训练,最后将它们合并以在调整后形成完整的适配器。以这种方式,MOSA可以比没有任何其他计算或存储开销的标准适配器更好地实现性能。此外,我们提出了一种分层稀疏策略,以改善杠杆有限的培训数据。在一系列27个视觉任务上进行的广泛实验表明,MOSA始终超过其他适配器调整方法以及其他基线的大幅度。更重要的是,MOSA在各种模型量表,体系结构和不同的PEFT方法上带来了一致的改进。代码将发布。