LLaMA关键词检索结果

微调 BERT 进行文本分类

Fine-Tuning BERT for Text Classification

一个带有 Python 代码的可破解示例尽管当今的 100B+ 参数转换器模型是 AI 领域最先进的模型,但我们仍然可以使用较小的(<1B 参数)模型完成很多工作。在本文中,我将介绍一个这样的示例,即微调 BERT(1.1 亿个参数)以对网络钓鱼 URL 进行分类。我将首先介绍关键概念,然后分享示例 Python 代码。图片来自 Canva。微调微调涉及通过额外的训练将预训练模型调整到特定用例。预训练模型是通过无监督学习开发的,从而无需大规模标记数据集。然后,与从头开始训练相比,经过微调的模型可以利用预先训练的模型表示来显着降低训练成本并提高模型性能 [1]。微调大型语言模型 (LLM)将训练

一劳永逸地戳破 AI 炒作泡沫

Bursting the AI Hype Bubble Once and for All

错误信息和不良研究:案例研究人们不能忽视这样一个事实:ChatGPT 等人工智能模型已经占领了互联网,并进入了互联网的每个角落。大多数人工智能应用程序对于广泛的任务(医疗保健、工程、计算机视觉、教育等)都非常有用和有益,我们没有理由不投入时间和金钱来开发它们。但生成式人工智能 (GenAI) 的情况并非如此,我将在本文中特别提到它。这包括 LLM 和 RAG,例如 ChatGPT、Claude、Gemini、Llama 和其他模型。对于我们所说的人工智能、我们使用的模型及其环境影响,必须非常具体。[1]:人们对“AI”和“ChatGPT”一词的兴趣随时间变化(过去四年)。截图由我拍摄。来源:G

Clarifai 10.9:控制中心:您的统一 AI 仪表板

Clarifai 10.9: Control Center: Your Unified AI Dashboard

推出控制中心、Llama 3.2、o1-preview 和 o1-mini 型号,以及新的上传功能等。

在 LLM 代理框架之间进行选择

Choosing Between LLM Agent Frameworks

构建定制的基于代码的代理和主要代理框架之间的权衡。作者提供的图片感谢 John Gilhuly 对本文的贡献。代理正处于发展阶段。随着多个新框架和该领域的新投资,现代 AI 代理正在克服不稳定的起源,迅速取代 RAG 成为实施优先事项。那么 2024 年最终会成为自主 AI 系统接管编写电子邮件、预订航班、与我们的数据对话或任何其他任务的一年吗?也许,但要达到这一点还有很多工作要做。任何构建代理的开发人员不仅必须选择基础——使用哪种模型、用例和架构——还必须选择要利用哪个框架。您会选择长期存在的 LangGraph 还是新进入的 LlamaIndex Workflows?或者你走传统路线,自己

Transformer?扩散?输血!

Transformer? Diffusion? Transfusion!

最新多模态转输模型的简单介绍最近,Meta 和 Waymo 发布了他们的最新论文 —Transfusion: Predict the Next Token and Diffuse Images with One Multi-Modal Model,该论文将流行的 Transformer 模型与扩散模型相结合,用于多模态训练和预测目的。与 Meta 之前的工作一样,Transfusion 模型基于带有早期融合的 Llama 架构,它同时采用文本 token 序列和图像 token 序列,并使用单个 Transformer 模型来生成预测。但与以前的技术不同,Transfusion 模型对图像 t

使用 SageMaker Endpoint 通过 vLLM 部署您的 Llama 模型

Deploying Your Llama Model via vLLM using SageMaker Endpoint

利用 AWS 的 MLOps 平台为您的 LLM 模型提供服务继续阅读 Towards Data Science »

如何使用 LlamaIndex 工作流简化我的研究和演示

How I Streamline My Research and Presentation with LlamaIndex Workflows

以可靠性、灵活性和可控性协调 AI 工作流的示例LlamaIndex 最近推出了一项新功能:工作流。它对于那些想要创建既可靠又灵活的 AI 解决方案的人来说非常有用。为什么?因为它允许您使用控制流定义自定义步骤。它支持循环、反馈和错误处理。它就像一个支持 AI 的管道。但与通常以有向无环图 (DAG) 形式实现的典型管道不同,工作流还支持循环执行,使其成为实现代理和其他更复杂过程的良好候选。介绍工作流测试版:使用 LlamaIndex 创建复杂 AI 应用程序的新方法 - LlamaIndex,LLM 应用程序的数据框架在本文中,我将展示如何使用 LlamaIndex 工作流简化我研究某个主题

使用 DPO、Amazon SageMaker Studio 和 Amazon SageMaker Ground Truth 将 Meta Llama 3 与人类偏好保持一致

Align Meta Llama 3 to human preferences with DPO, Amazon SageMaker Studio, and Amazon SageMaker Ground Truth

在本文中,我们将向您展示如何通过使用直接偏好优化 (DPO) 对使用 SageMaker Ground Truth 收集的数据进行微调来提高 Meta Llama 3 8B Instruct 的性能。

Amazon EC2 P5e 实例已全面推出

Amazon EC2 P5e instances are generally available

在本文中,我们将讨论 Amazon Elastic Compute Cloud (Amazon EC2) P5e 实例的核心功能以及它们非常适合的用例。我们将通过一个示例向您介绍如何开始使用这些实例并在其上执行 Meta Llama 3.1 70B 和 405B 模型的推理部署。

Reflection 70B 是最强大的开源 LLM 还是骗局?

Is Reflection 70B the most powerful open-source LLM or a scam?

HyperWrite 创始人兼首席执行官 Matt Shumer 宣布,他的新模型 Reflection 70B 使用一个简单的技巧来解决 LLM 幻觉,并提供了令人印象深刻的基准测试结果,击败了 GPT-4o 等更大甚至封闭的模型。 Shumer 与合成数据提供商 Glaive 合作创建了基于 Meta 的 Llama 3.1-70B Instruct 模型的新模型。在 Hugging Face 的发布公告中,Shumer 表示:“Reflection Llama-3.1 70B 是(目前)全球顶级的开源 LLM,采用名为 Reflection-Tuning 的新技术进行训练,该技术可教导

在 Amazon SageMaker JumpStart 上微调 Llama 3 以生成文本

Fine-tune Llama 3 for text generation on Amazon SageMaker JumpStart

在本文中,我们将演示如何使用 Amazon SageMaker JumpStart 对 Meta 中最近发布的 Llama 3 模型(特别是 llama-3-8b 和 llama-3-70b 变体)进行微调。

构建强大的使用 LlamaIndex 和 Amazon Bedrock 的 RAG 管道

Build powerful RAG pipelines with LlamaIndex and Amazon Bedrock

在这篇文章中,我们向您展示了如何将 LlamaIndex 与 Amazon Bedrock 结合使用,以构建强大而复杂的 RAG 管道,从而充分发挥 LLM 在知识密集型任务中的潜力。

使用 Meta Llama 3 进行文本到 SQL 用例的提示工程最佳实践

Best practices for prompt engineering with Meta Llama 3 for Text-to-SQL use cases

在本文中,我们将探索一种解决方案,该解决方案使用向量引擎 ChromaDB 和 Meta Llama 3(托管在 SageMaker JumpStart 上的公开基础模型)来实现文本到 SQL 用例。我们分享了 Meta Llama 3 的简要历史、使用 Meta Llama 3 模型进行快速工程的最佳实践,以及使用少样本提示和 RAG 提取存储在 ChromaDB 中的相关模式的架构模式。

Clarifai 10.7:您的数据,您的 AI:微调 Llama 3.1

Clarifai 10.7: Your Data, Your AI: Fine-Tune Llama 3.1

使用 Clarifai 平台中的最新训练模板针对您的用例对 Llama 3.1 进行微调。新模型:Llama 3.1 8B Instruct、GPT-4 o mini。

AWS AI 芯片为 AWS 上的 Llama 3.1 模型提供高性能和低成本

AWS AI chips deliver high performance and low cost for Llama 3.1 models on AWS

今天,我们很高兴地宣布 AWS Trainium 和 AWS Inferentia 支持 Llama 3.1 模型的微调和推理。Llama 3.1 系列多语言大型语言模型 (LLM) 是一组预先训练和指令调整的生成模型,大小分别为 8B、70B 和 405B。在上一篇文章中,我们介绍了如何在 Amazon SageMaker JumpStart 中基于 AWS Trainium 和 Inferentia 的实例上部署 Llama 3 模型。在这篇文章中,我们概述了如何开始在 AWS AI 芯片上微调和部署 Llama 3.1 系列模型,以实现其性价比优势。

使用 Llama 3.1 405B 生成用于微调任务的合成数据

Use Llama 3.1 405B for synthetic data generation and distillation to fine-tune smaller models

今天,我们很高兴地宣布 Llama 3.1 405B 模型已在 Amazon SageMaker JumpStart 和 Amazon Bedrock 上推出预览版。 Llama 3.1 模型是一组先进的预训练和指导微调的生成式人工智能 (AI) 模型,大小分别为 8B、70B 和 405B。Amazon SageMaker JumpStart 是一个机器学习 (ML) 中心,提供对算法、模型和 ML 解决方案的访问,以便您可以快速开始使用 ML。Amazon Bedrock 提供了一种使用 Meta Llama 模型构建和扩展生成式 AI 应用程序的简单方法,只需一个 API 即可。

Llama 3.1 模型现已在 Amazon SageMaker JumpStart 中可用

Llama 3.1 models are now available in Amazon SageMaker JumpStart

今天,我们很高兴地宣布,最先进的 Llama 3.1 多语言大型语言模型 (LLM) 集合(包括 8B、70B 和 405B 大小的预训练和指令调整生成式 AI 模型)可通过 Amazon SageMaker JumpStart 部署以进行推理。Llama 是一种可公开访问的 LLM,专为开发人员、研究人员和企业设计,用于构建、试验和负责任地扩展他们的生成式人工智能 (AI) 创意。在这篇文章中,我们将介绍如何使用 SageMaker JumpStart 发现和部署 Llama 3.1 模型。

函数调用:在 xLAM 上微调 Llama 3

Function Calling: Fine-Tuning Llama 3 on xLAM

得益于 QLoRA,速度快且内存效率高继续阅读 Towards Data Science »