LLM关键词检索结果

LLMS所需的数学,机器学习和编码

Math, Machine Learning & Coding Needed For LLMs

本文的目的是指导您完成与LLMS合作所需的基本数学基础,机器学习技术和编码实践。

从多模式LLM到通才体现的药物:方法和课程

From Multimodal LLMs to Generalist Embodied Agents: Methods and Lessons

我们研究了多模式大语言模型(MLLM)的能力,以解决超出传统语言和视觉任务的不同领域,这些模型通常受到培训。具体而言,我们的重点在于体现的AI,游戏,UI控制和计划等领域。为此,我们引入了将MLLM适应通才体现的代理(GEA)的过程。 GEA是一个单一的统一模型,能够通过多物种作用令牌将自己跨越这些各种领域的自身地接地。 GEA在大量的体现经验数据集中接受了监督学习和…

AI定价评论,2025年:流行模型中的LLM经济学

AI Pricing Review in 2025: LLM Economics in Popular Models

AI定价模型分析和对各种模型术语的比较以及如何使用低价模型来制定决定。2025年的AI后AI定价评论:流行模型中的LLM经济学首先出现在Weam -AI上-AI -AI用于数字代理。

教程:用LLM提示的用户消息的语义聚类

Tutorial: Semantic Clustering of User Messages with LLM Prompts

作为开发人员倡导者,跟上用户论坛消息并了解用户在说什么的全局是一项挑战。有很多有价值的内容 - 但是您如何快速发现关键对话?在本教程中,我将向您展示一个AI hack,仅通过提示LLMS来执行语义聚类! […]帖子教程:使用LLM提示的用户消息的语义聚类首先出现在数据科学上。

保持LLMS相关:比较AI效率和准确性的抹布和CAG

Keeping LLMs Relevant: Comparing RAG and CAG for AI Efficiency and Accuracy

假设AI助手未能回答有关时事或在关键情况下提供过时的信息的问题。这种情况虽然越来越罕见,但反映了保持大型语言模型(LLM)更新的重要性。这些AI系统,从客户服务聊天机器人到高级研究工具的所有功能都与数据[…]保持LLMS相关的数据一样有效:比较rag和cag以在unite.ai上首先出现AI效率和准确性。

新研究采用新颖的方法来减轻LLMS中的偏见

New study takes novel approach to mitigating bias in LLMs

“模型修剪”可用于查明和去除始终导致偏见反应的神经元。

使用 Amazon Bedrock 使用合成数据微调 LLM 以进行基于上下文的问答

Fine-tune LLMs with synthetic data for context-based Q&A using Amazon Bedrock

在本文中,我们将探讨如何使用 Amazon Bedrock 生成合成训练数据来微调 LLM。此外,我们还提供了具体的评估结果,展示了合成数据在数据稀缺时进行微调的强大功能。

使用 Amazon SageMaker AI 上的 Medusa-1 将 LLM 推理速度提高约 2 倍

Achieve ~2x speed-up in LLM inference with Medusa-1 on Amazon SageMaker AI

研究人员开发了 Medusa,这是一个通过添加额外头来同时预测多个标记以加快 LLM 推理速度的框架。这篇文章演示了如何使用框架的第一个版本 Medusa-1 通过在 Amazon SageMaker AI 上对其进行微调来加速 LLM,并通过部署和简单的负载测试确认了加速效果。Medusa-1 在不牺牲模型质量的情况下实现了约两倍的推理加速,具体改进取决于模型大小和使用的数据。在这篇文章中,我们通过在样本数据集上观察到 1.8 倍的加速来证明其有效性。

在 Amazon Bedrock 模型评估中担任 LLM 评委

LLM-as-a-judge on Amazon Bedrock Model Evaluation

这篇博文探讨了 Amazon Bedrock 模型评估中的 LLM-as-a-judge,提供了功能设置的全面指导,通过控制台和 Python SDK 和 API 评估作业启动,并展示了这一创新评估功能如何增强生成式 AI 应用程序在多个指标类别中的性能,包括质量、用户体验、指令遵循和安全性。

每个开发人员都应该知道的 5 种 LLM 提示技术

5 LLM Prompting Techniques Every Developer Should Know

想要充分利用大型语言模型?查看这些提示技术,您今天就可以开始使用。

我尝试制作自己的(糟糕的)LLM 基准以在密室逃脱中作弊

I Tried Making my Own (Bad) LLM Benchmark to Cheat in Escape Rooms

最近,DeepSeek 发布了他们的最新模型 R1,一篇又一篇文章称赞其相对于成本的性能,以及此类开源模型的发布如何真正永远改变 LLM 的发展方向。这真是令人兴奋!而且,范围太大了,无法一一列举……但是当像 DeepSeek 这样的模型 […]The post I Tried Making my own (Bad) LLM Benchmark to Cheat in Escape Rooms 首次出现在 Towards Data Science 上。

使用 LLM 生成合成数据

Synthetic Data Generation with LLMs

RAG 的流行度 在过去两年与金融公司合作的过程中,我亲眼目睹了他们如何识别和优先考虑生成式 AI 用例,在复杂性和潜在价值之间取得平衡。检索增强生成 (RAG) 通常是许多 LLM 驱动解决方案的基础功能,在易于实施和对现实世界的影响之间取得平衡。通过结合 […]The post 使用 LLM 进行合成数据生成首先出现在 Towards Data Science 上。

LLM 温度🔥🌡️ 综合指南

A Comprehensive Guide to LLM Temperature 🔥🌡️

在构建我自己的基于 LLM 的应用程序时,我发现了许多提示工程指南,但很少有用于确定温度设置的等效指南。当然,温度是一个简单的数值,而提示可能会变得非常复杂,因此作为产品决策,它可能感觉微不足道。尽管如此,选择合适的温度可以极大地改变 […]The post LLM 温度综合指南🔥🌡️ 首先出现在 Towards Data Science 上。

Kubernetes 如何彻底改变 LLMOps 中的可扩展 AI 工作流程?

How Is Kubernetes Revolutionizing Scalable AI Workflows in LLMOps?

了解 Kubernetes 如何实现可扩展、高效的 LLMOps 和 AI 工作流。文章《Kubernetes 如何彻底改变 LLMOps 中的可扩展 AI 工作流?》首先出现在 Spritle 软件上。

优化 LLM:比较 vLLM、LMDeploy 和 SGLang

Optimizing LLMs: Comparing vLLM, LMDeploy, and SGLang

了解 vLLM、LMDeploy 和 SGLang 如何优化 LLM 推理效率。了解 KV 缓存管理、内存分配和 CUDA 优化。

使用 Amazon SageMaker JumpStart 上的 NeMo Guardrails 增强 LLM 功能

Enhancing LLM Capabilities with NeMo Guardrails on Amazon SageMaker JumpStart

将 NeMo Guardrails 与大型语言模型 (LLM) 集成是向面向客户的应用程序中部署 AI 的重要一步。AnyCompany Pet Supplies 的示例说明了这些技术如何在处理拒绝和引导对话实现实施结果的同时增强客户互动。这一走向道德 AI 部署的旅程对于与客户建立可持续的、基于信任的关系以及塑造技术与人类价值观无缝契合的未来至关重要。

使用 LLM 创建流程图和图表的 3 种简单方法

3 Easy Ways to Create Flowcharts and Diagrams Using LLMs

创建图表并不难!只需简单的文本描述,LLM 就可以帮助您立即生成流程图和图表。

使用 AI 和 LLM,通过 Python 和 Streamlit 从简历到求职信

From Resume to Cover Letter Using AI and LLM, with Python and Streamlit

免责声明:使用 AI 制作求职信甚至简历的想法显然不是我首先提出的。很多人之前已经这样做过(非常成功),并根据这个想法建立了网站甚至公司。这只是一个关于如何使用 […] 构建自己的求职信 AI 生成器应用程序的教程。文章从简历到求职信,使用 AI 和 LLM,使用 Python 和 Streamlit 首次出现在 Towards Data Science 上。