llms继续发展。您的技能也应该如此。

本周,我们重点介绍了围绕大型语言模型的新兴主题和技术的三篇文章。LLMS继续发展。您的技能也应该如此。首先出现在数据科学上。

来源:走向数据科学
永远不要错过我们每周的新闻新闻,这是我们每周的新闻通讯,其中包括一流的编辑选择,深度潜水,社区新闻等。
变量

微调?抹布?经过思考?我们怀疑,对于许多读者来说,这些LLM优化的方法(尽管仍然可能仍然存在),这是一个陈旧的陈旧。

llm-optimization

如果您想赶上大型语言模型庞大的世界中的尖端主题,请继续阅读。本周的变量重点介绍了最近的三篇文章,这些文章将帮助您创建强大的LLM工作流并克服新兴的挑战。

如何创建与人类标签保持一致的LLM法官

评估LLM输出的质量在许多从业人员方面仍然是刺。 Elena Samuylova提出了一个清醒的动手指南,用于建立强大的LLM-AS-A-A-A-Gudge管道,从而产生可靠且一致的结果。

Elena Samuylova

您的1M+上下文窗口llm不如您想象的

您担心模型可以处理多少个令牌之前,请考虑其有效的工作记忆。 Tobias Schnabel解释了原因。

探索提示学习:使用英语反馈来优化LLM Systems

根据她的团队最近的工作,Aparna Dhinakaran概述了一种有希望的新方法,该方法“使用自然语言反馈来迭代地提示”。

本周最阅读的故事

赶上我们社区最近几天一直在嗡嗡作响的文章:

主题模型标签llms,petrkoráb

准确性已死:Pol Marin

Mariya Mansurova

其他推荐的读数

从异常检测到自我发展的AI,我们的作者继续涵盖数据科学和机器学习中引人入胜的主题。这里还有一些必读的必读内容:

    我分析了25,000个酒店名称,并找到了四个令人惊讶的真相,Anna Gordun Peiro
    自我发展的AI的年龄在这里,Moulik Gupta

认识我们的新作者

Shireesh Kumar Singh