Clarifai 10.9: Control Center: Your Unified AI Dashboard
推出控制中心、Llama 3.2、o1-preview 和 o1-mini 型号,以及新的上传功能等。
Choosing Between LLM Agent Frameworks
构建定制的基于代码的代理和主要代理框架之间的权衡。作者提供的图片感谢 John Gilhuly 对本文的贡献。代理正处于发展阶段。随着多个新框架和该领域的新投资,现代 AI 代理正在克服不稳定的起源,迅速取代 RAG 成为实施优先事项。那么 2024 年最终会成为自主 AI 系统接管编写电子邮件、预订航班、与我们的数据对话或任何其他任务的一年吗?也许,但要达到这一点还有很多工作要做。任何构建代理的开发人员不仅必须选择基础——使用哪种模型、用例和架构——还必须选择要利用哪个框架。您会选择长期存在的 LangGraph 还是新进入的 LlamaIndex Workflows?或者你走传统路线,自己
Transformer? Diffusion? Transfusion!
最新多模态转输模型的简单介绍最近,Meta 和 Waymo 发布了他们的最新论文 —Transfusion: Predict the Next Token and Diffuse Images with One Multi-Modal Model,该论文将流行的 Transformer 模型与扩散模型相结合,用于多模态训练和预测目的。与 Meta 之前的工作一样,Transfusion 模型基于带有早期融合的 Llama 架构,它同时采用文本 token 序列和图像 token 序列,并使用单个 Transformer 模型来生成预测。但与以前的技术不同,Transfusion 模型对图像 t
Deploying Your Llama Model via vLLM using SageMaker Endpoint
利用 AWS 的 MLOps 平台为您的 LLM 模型提供服务继续阅读 Towards Data Science »
How I Streamline My Research and Presentation with LlamaIndex Workflows
以可靠性、灵活性和可控性协调 AI 工作流的示例LlamaIndex 最近推出了一项新功能:工作流。它对于那些想要创建既可靠又灵活的 AI 解决方案的人来说非常有用。为什么?因为它允许您使用控制流定义自定义步骤。它支持循环、反馈和错误处理。它就像一个支持 AI 的管道。但与通常以有向无环图 (DAG) 形式实现的典型管道不同,工作流还支持循环执行,使其成为实现代理和其他更复杂过程的良好候选。介绍工作流测试版:使用 LlamaIndex 创建复杂 AI 应用程序的新方法 - LlamaIndex,LLM 应用程序的数据框架在本文中,我将展示如何使用 LlamaIndex 工作流简化我研究某个主题
在本文中,我们将向您展示如何通过使用直接偏好优化 (DPO) 对使用 SageMaker Ground Truth 收集的数据进行微调来提高 Meta Llama 3 8B Instruct 的性能。
Amazon EC2 P5e instances are generally available
在本文中,我们将讨论 Amazon Elastic Compute Cloud (Amazon EC2) P5e 实例的核心功能以及它们非常适合的用例。我们将通过一个示例向您介绍如何开始使用这些实例并在其上执行 Meta Llama 3.1 70B 和 405B 模型的推理部署。
Is Reflection 70B the most powerful open-source LLM or a scam?
HyperWrite 创始人兼首席执行官 Matt Shumer 宣布,他的新模型 Reflection 70B 使用一个简单的技巧来解决 LLM 幻觉,并提供了令人印象深刻的基准测试结果,击败了 GPT-4o 等更大甚至封闭的模型。 Shumer 与合成数据提供商 Glaive 合作创建了基于 Meta 的 Llama 3.1-70B Instruct 模型的新模型。在 Hugging Face 的发布公告中,Shumer 表示:“Reflection Llama-3.1 70B 是(目前)全球顶级的开源 LLM,采用名为 Reflection-Tuning 的新技术进行训练,该技术可教导
Fine-tune Llama 3 for text generation on Amazon SageMaker JumpStart
在本文中,我们将演示如何使用 Amazon SageMaker JumpStart 对 Meta 中最近发布的 Llama 3 模型(特别是 llama-3-8b 和 llama-3-70b 变体)进行微调。
Refining Intelligence: The Strategic Role of Fine-Tuning in Advancing LLaMA 3.1 and Orca 2
在当今快节奏的人工智能 (AI) 世界中,微调大型语言模型 (LLM) 已变得至关重要。这个过程不仅仅是增强这些模型并对其进行定制以更精确地满足特定需求。随着人工智能继续融入各个行业,为特定任务定制这些模型的能力变得越来越重要。微调可提高性能 […]The post 完善智能:微调在推进 LLaMA 3.1 和 Orca 2 中的战略作用首次出现在 Unite.AI 上。
Build powerful RAG pipelines with LlamaIndex and Amazon Bedrock
在这篇文章中,我们向您展示了如何将 LlamaIndex 与 Amazon Bedrock 结合使用,以构建强大而复杂的 RAG 管道,从而充分发挥 LLM 在知识密集型任务中的潜力。
Best practices for prompt engineering with Meta Llama 3 for Text-to-SQL use cases
在本文中,我们将探索一种解决方案,该解决方案使用向量引擎 ChromaDB 和 Meta Llama 3(托管在 SageMaker JumpStart 上的公开基础模型)来实现文本到 SQL 用例。我们分享了 Meta Llama 3 的简要历史、使用 Meta Llama 3 模型进行快速工程的最佳实践,以及使用少样本提示和 RAG 提取存储在 ChromaDB 中的相关模式的架构模式。
Clarifai 10.7: Your Data, Your AI: Fine-Tune Llama 3.1
使用 Clarifai 平台中的最新训练模板针对您的用例对 Llama 3.1 进行微调。新模型:Llama 3.1 8B Instruct、GPT-4 o mini。
AWS AI chips deliver high performance and low cost for Llama 3.1 models on AWS
今天,我们很高兴地宣布 AWS Trainium 和 AWS Inferentia 支持 Llama 3.1 模型的微调和推理。Llama 3.1 系列多语言大型语言模型 (LLM) 是一组预先训练和指令调整的生成模型,大小分别为 8B、70B 和 405B。在上一篇文章中,我们介绍了如何在 Amazon SageMaker JumpStart 中基于 AWS Trainium 和 Inferentia 的实例上部署 Llama 3 模型。在这篇文章中,我们概述了如何开始在 AWS AI 芯片上微调和部署 Llama 3.1 系列模型,以实现其性价比优势。
Use Llama 3.1 405B for synthetic data generation and distillation to fine-tune smaller models
今天,我们很高兴地宣布 Llama 3.1 405B 模型已在 Amazon SageMaker JumpStart 和 Amazon Bedrock 上推出预览版。 Llama 3.1 模型是一组先进的预训练和指导微调的生成式人工智能 (AI) 模型,大小分别为 8B、70B 和 405B。Amazon SageMaker JumpStart 是一个机器学习 (ML) 中心,提供对算法、模型和 ML 解决方案的访问,以便您可以快速开始使用 ML。Amazon Bedrock 提供了一种使用 Meta Llama 模型构建和扩展生成式 AI 应用程序的简单方法,只需一个 API 即可。
Llama 3.1 models are now available in Amazon SageMaker JumpStart
今天,我们很高兴地宣布,最先进的 Llama 3.1 多语言大型语言模型 (LLM) 集合(包括 8B、70B 和 405B 大小的预训练和指令调整生成式 AI 模型)可通过 Amazon SageMaker JumpStart 部署以进行推理。Llama 是一种可公开访问的 LLM,专为开发人员、研究人员和企业设计,用于构建、试验和负责任地扩展他们的生成式人工智能 (AI) 创意。在这篇文章中,我们将介绍如何使用 SageMaker JumpStart 发现和部署 Llama 3.1 模型。
Function Calling: Fine-Tuning Llama 3 on xLAM
得益于 QLoRA,速度快且内存效率高继续阅读 Towards Data Science »
Large Language Models are biased – but can still help analyse complex data
在一项试点研究中,研究人员发现证据表明,大型语言模型 (LLM) 能够以与人类类似的方式分析有争议的话题,例如澳大利亚 Robodebt 丑闻——有时也会表现出类似的偏见。研究发现,可以通过周到的指示提示 LLM 代理 (GPT-4 和 Llama 2) 将其编码结果与人类任务对齐:“要持怀疑态度!”或“要节俭!”。同时,LLM 还可以帮助人类研究人员识别疏忽和潜在的分析盲点。