微调关键词检索结果

何时外出,何时留在家中:RAG 与微调

When to Go Out and When to Stay In: RAG vs. Fine-tuning

本文全面讨论了何时为您的 LLM 和潜在的混合解决方案选择哪种方法。

如何使用 Hugging Face Transformers 对 T5 进行微调以完成问答任务

How to Fine-Tune T5 for Question Answering Tasks with Hugging Face Transformers

使用 Hugging Face Transformers 对 T5 模型进行微调以完成问答任务非常简单:向模型提供问题和上下文,它就会学习生成正确的答案。

创建和微调句子转换器以提高分类准确性

Create and fine-tune sentence transformers for enhanced classification accuracy

在本文中,我们展示了如何微调句子转换器,专门用于将 Amazon 产品归类到其产品类别(例如玩具或体育用品)。我们展示了两个不同的句子转换器,paraphrase-MiniLM-L6-v2 和专有的 Amazon 大型语言模型 (LLM) M5_ASIN_SMALL_V2.0,并比较它们的结果。

微调 GPT-4o

Fine-Tuning GPT-4o

了解如何仅用几行代码增强 GPT-4o 在旧笔记本电脑上进行法律文本澄清的性能。

使用 Unsloth 对 Llama 3.2 进行微调

Fine-tuning Llama 3.2 Using Unsloth

Unsloth 是一个用户友好的框架,为大型语言模型提供快速推理和微调。 它还支持以多种格式保存模型,包括 vLLM 和 GGUF。

使用来自 Amazon Bedrock 的合成数据微调 BGE 嵌入模型

Fine-tune a BGE embedding model using synthetic data from Amazon Bedrock

在本文中,我们演示了如何使用 Amazon Bedrock 创建合成数据、微调 BAAI 通用嵌入 (BGE) 模型以及使用 Amazon SageMaker 进行部署。

使用 Amazon SageMaker Pipelines 的新可视化设计器自动微调 Llama 3.x 模型

Automate fine-tuning of Llama 3.x models with the new visual designer for Amazon SageMaker Pipelines

在这篇文章中,我们将向您展示如何设置自动化的 LLM 自定义(微调)工作流程,以便 Meta 的 Llama 3.x 模型可以为金融应用程序提供高质量的 SEC 文件摘要。微调允许您配置 LLM 以在特定于域的任务上实现更好的性能。

微调 BERT 进行文本分类

Fine-Tuning BERT for Text Classification

一个带有 Python 代码的可破解示例尽管当今的 100B+ 参数转换器模型是 AI 领域最先进的模型,但我们仍然可以使用较小的(<1B 参数)模型完成很多工作。在本文中,我将介绍一个这样的示例,即微调 BERT(1.1 亿个参数)以对网络钓鱼 URL 进行分类。我将首先介绍关键概念,然后分享示例 Python 代码。图片来自 Canva。微调微调涉及通过额外的训练将预训练模型调整到特定用例。预训练模型是通过无监督学习开发的,从而无需大规模标记数据集。然后,与从头开始训练相比,经过微调的模型可以利用预先训练的模型表示来显着降低训练成本并提高模型性能 [1]。微调大型语言模型 (LLM)将训练

在 Amazon SageMaker JumpStart 上微调 Llama 3 以生成文本

Fine-tune Llama 3 for text generation on Amazon SageMaker JumpStart

在本文中,我们将演示如何使用 Amazon SageMaker JumpStart 对 Meta 中最近发布的 Llama 3 模型(特别是 llama-3-8b 和 llama-3-70b 变体)进行微调。

完善智能:微调在推进 LLaMA 3.1 和 Orca 2 中的战略作用

Refining Intelligence: The Strategic Role of Fine-Tuning in Advancing LLaMA 3.1 and Orca 2

在当今快节奏的人工智能 (AI) 世界中,微调大型语言模型 (LLM) 已变得至关重要。这个过程不仅仅是增强这些模型并对其进行定制以更精确地满足特定需求。随着人工智能继续融入各个行业,为特定任务定制这些模型的能力变得越来越重要。微调可提高性能 […]The post 完善智能:微调在推进 LLaMA 3.1 和 Orca 2 中的战略作用首次出现在 Unite.AI 上。

通过检索增强微调增强您的 LLM

Supercharge your LLM via Retrieval Augmented Fine-tuning

了解检索增强微调 (RAFT),这是一种将检索增强生成 (RAG) 的优势与微调功能相结合的方法。

Clarifai 10.7:您的数据,您的 AI:微调 Llama 3.1

Clarifai 10.7: Your Data, Your AI: Fine-Tune Llama 3.1

使用 Clarifai 平台中的最新训练模板针对您的用例对 Llama 3.1 进行微调。新模型:Llama 3.1 8B Instruct、GPT-4 o mini。

使用 Llama 3.1 405B 生成用于微调任务的合成数据

Use Llama 3.1 405B for synthetic data generation and distillation to fine-tune smaller models

今天,我们很高兴地宣布 Llama 3.1 405B 模型已在 Amazon SageMaker JumpStart 和 Amazon Bedrock 上推出预览版。 Llama 3.1 模型是一组先进的预训练和指导微调的生成式人工智能 (AI) 模型,大小分别为 8B、70B 和 405B。Amazon SageMaker JumpStart 是一个机器学习 (ML) 中心,提供对算法、模型和 ML 解决方案的访问,以便您可以快速开始使用 ML。Amazon Bedrock 提供了一种使用 Meta Llama 模型构建和扩展生成式 AI 应用程序的简单方法,只需一个 API 即可。

函数调用:在 xLAM 上微调 Llama 3

Function Calling: Fine-Tuning Llama 3 on xLAM

得益于 QLoRA,速度快且内存效率高继续阅读 Towards Data Science »

Amazon SageMaker 推出 Cohere Command R 微调模型

Amazon SageMaker unveils the Cohere Command R fine-tuning model

AWS 宣布在 Amazon SageMaker 上推出 Cohere Command R 微调模型。SageMaker 机器学习 (ML) 功能套件的最新成员使企业能够利用大型语言模型 (LLM) 的强大功能,并充分发挥其在各种应用中的潜力。Cohere Command R 是一种可扩展的前沿 […]

斯坦福大学的研究人员推出了上下文向量 (ICV):一种可扩展且高效的 AI 方法,用于微调大型语言模型

Researchers at Stanford Introduces In-Context Vectors (ICV): A Scalable and Efficient AI Approach for Fine-Tuning Large Language Models

大型语言模型 (LLM) 对于推动人工智能和自然语言处理达到新高度至关重要。这些模型在理解和生成人类语言方面表现出了非凡的能力,其应用范围包括但不限于医疗保健、教育和社交互动。然而,LLM 需要提高情境学习的有效性和控制力。斯坦福大学的研究人员引入了情境向量 (ICV):一种可扩展且高效的 AI 方法,用于微调大型语言模型,该文章首先出现在 AI Quantum Intelligence 上。

使用 Amazon SageMaker 上经过微调的嵌入模型提高 RAG 准确性

Improve RAG accuracy with fine-tuned embedding models on Amazon SageMaker

这篇文章演示了如何使用 Amazon SageMaker 微调 Sentence Transformer 嵌入模型并将其部署到 Amazon SageMaker Endpoint。本文中的代码和更多示例可在 GitHub 存储库中找到。

在 Amazon Bedrock 中微调 Anthropic 的 Claude 3 Haiku 以提高模型准确性和质量

Fine-tune Anthropic’s Claude 3 Haiku in Amazon Bedrock to boost model accuracy and quality

Frontier 大型语言模型 (LLM)(如 Amazon Bedrock 上的 Anthropic Claude)经过大量数据训练,使 Anthropic Claude 能够理解和生成类似人类的文本。在专有数据集上对 Anthropic Claude 3 Haiku 进行微调可以在特定领域或任务上提供最佳性能。微调作为深层次的定制代表了关键 […]