Loading...
机构名称:
¥ 1.0

大语模型(LLM)(例如BERT,GPT-4和T5)的摘要最新进展已彻底改变了自然语言处理(NLP)的领域,从而解除了许多应用。但是,针对特定任务的这些模型进行了细微的调整仍然是一个复杂且资源密集的过程,通常在很大程度上依靠专家知识。本研究建议将元学习纳入自动机器学习(AUTOML)系统,以优化LLM微调和管道构建。我们假设基于知识的元学习可以通过将专家衍生的启发式方法嵌入到优化过程中来克服当前汽车方法的低效率。我们的方法涉及编制大量的LLM使用数据,培训元学习估计器,并将其集成到自动自动框架中。这样做,我们旨在降低计算成本并提高基于LLM的NLP应用程序的效率。将根据传统的汽车方法和针对各种文本分类任务的人类专家进行评估,以验证其有效性。这项研究可以通过使高级LLM功能更易于访问和高效来进一步使NLP民主化。

通过基于知识的meta- ...

通过基于知识的meta- ...PDF文件第1页

通过基于知识的meta- ...PDF文件第2页

通过基于知识的meta- ...PDF文件第3页

通过基于知识的meta- ...PDF文件第4页

通过基于知识的meta- ...PDF文件第5页