Building AI Agents with llama.cpp
本指南将带您完成在本地计算机上设置和运行Llama.cpp服务器的整个过程,构建本地AI代理,并使用各种提示进行测试。
From Jailbreaks to Injections: How Meta Is Strengthening AI Security with Llama Firewall
大型语言模型(LLM)(例如Meta的Llama系列)改变了当今人工智能(AI)的工作方式。这些模型不再是简单的聊天工具。他们可以使用电子邮件,网站和其他来源的输入来编写代码,管理任务并做出决策。这赋予了他们强大的力量,但也带来了新的安全问题。旧保护方法[…]从越狱到注射的帖子:元如何加强与Llama防火墙的AI安全性,首先出现在Unite.ai上。
在这篇文章中,我们演示了使用LlamainDex框架构建代理RAG应用程序的示例。 LlamainDex是将FMS连接到外部数据源的框架。它有助于从数据库,API,PDF等摄入,结构和检索信息,从而使代理和抹布适合AI应用程序。该应用程序用作研究工具,使用亚马逊基岩上的Mistral大2 FM产生对代理流量的响应。
在这个专业信息提取解决方案的基础上建立了建立,并利用Sagemaker Hyperpod的功能,我们与Apoidea Group合作探索了使用大型视觉语言模型(LVLM)的使用,以进一步改善银行和财务文档上的表结构识别性能。在这篇文章中,我们介绍了使用Sagemaker Hyperpod上的Llama-Factory进行QWEN2-VL-7B教学模型进行微调的QWEN2-VL-7B教学模型的逐步代码。
Best practices for Meta Llama 3.2 multimodal fine-tuning on Amazon Bedrock
在这篇文章中,我们分享了针对亚马逊基岩上微调元美洲拉玛3.2多模式的全面最佳实践和科学见解。通过遵循这些准则,您可以微调较小,更具成本效益的模型,以实现可与之匹配甚至超过更大模型的性能,可以降低推理成本和潜伏期,同时保持特定用例的高精度。
Building a RAG Application Using LlamaIndex
使用检索演出的生成和LlamainDex通过实时文档检索和动态知识集成来增强语言模型。
Next从Google Cloud返回,Paul和Mike又回来了一些AI的重大更新。他们从Chatgpt的新内存功能开始,并解开这对您的数据(以及您的日常工作流程)意味着什么。然后是Shopify泄露的备忘录:没有新员工,直到AI证明它无法完成这项工作。 DataBox通过用机器人代替80%的支持团队,并实际上提高了性能。
Llama 4 family of models from Meta are now available in SageMaker JumpStart
今天,我们很高兴地宣布亚马逊萨吉式制造商Jumpstart的Llama 4 Scout和MaverickModels的可用性。在这篇博客文章中,我们将带您了解如何使用SageMaker Jumpstart进行部署和提示Allama-4-Scout-17b-16e-Inscruct模型。
Open-Source AI Strikes Back With Meta’s Llama 4
在过去的几年中,AI世界已从公开合作的文化转变为受保护的专有系统主导的文化。 Openai - 一家以“开放式”为名的公司,旨在在2019年之后保持其最强大的模型秘密。诸如Anthropic和Google之类的竞争对手类似地构建了尖端的AI […]邮政开源AI与Meta的Llama 4击中,首先在Unite.ai上出现了Meta的Llama 4。
今天,我们很高兴地宣布,Nemo Retriever Llama3.2文本嵌入和重新启动NVIDIA NIM微服务可在Amazon Sagemaker Jumpstart中获得。通过此发布,您现在可以部署NVIDIA优化的重新骑行和嵌入模型来构建,实验和负责任地扩展您的生成AI想法。在这篇文章中,我们演示了如何在Sagemaker Jumpstart上开始这些模型。
Evaluate RAG responses with Amazon Bedrock, LlamaIndex and RAGAS
在这篇文章中,我们将探讨如何利用亚马逊基岩,LlamainDex和Ragas来增强您的抹布实现。您将学习实用的技术来评估和优化您的AI系统,从而实现与组织特定需求保持一致的更准确,上下文感知的响应。
Using Llama 3.2-Vision Locally: A Step-by-Step Guide
通过其直观的用户界面或强大的端点服务在本地与先进的多模式 Llama 模型进行交互。
Deploy DeepSeek-R1 distilled Llama models with Amazon Bedrock Custom Model Import
在本文中,我们将演示如何使用 Amazon Bedrock 自定义模型导入来部署精简版的 DeepSeek-R1 模型。我们专注于导入当前支持的变体 DeepSeek-R1-Distill-Llama-8B 和 DeepSeek-R1-Distill-Llama-70B,它们在性能和资源效率之间实现了最佳平衡。
Nvidia Launches Llama Nemotron LLMs for Agentic AI
为何重要:Nvidia 为 Agentic AI 推出 Llama Nemotron LLM,通过更智能、自适应和可扩展的 AI 解决方案推动创新。
RadiologyLlama-70B: A new language model for radiology reports
RadiologyLlama-70B 是一种先进的 AI 模型,经过超过 650 万份医疗报告的训练,可增强对放射学发现的分析。该模型可以显著改善放射科医生的工作流程,在降低计算成本的同时提供卓越的准确性。
PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium
在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。
Llama 3.3 70B now available in Amazon SageMaker JumpStart
今天,我们很高兴地宣布 Meta 的 Llama 3.3 70B 已在 Amazon SageMaker JumpStart 中推出。 Llama 3.3 70B 标志着大型语言模型 (LLM) 开发方面取得了令人兴奋的进步,它以更少的计算资源提供了与大型 Llama 版本相当的性能。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型,并使用高级 SageMaker AI 功能实现最佳性能和成本管理。