Llama关键词检索结果

使用Llama.cpp

Building AI Agents with llama.cpp

本指南将带您完成在本地计算机上设置和运行Llama.cpp服务器的整个过程,构建本地AI代理,并使用各种提示进行测试。

从越狱到注射:Meta如何加强与Llama防火墙的AI安全性

From Jailbreaks to Injections: How Meta Is Strengthening AI Security with Llama Firewall

大型语言模型(LLM)(例如Meta的Llama系列)改变了当今人工智能(AI)的工作方式。这些模型不再是简单的聊天工具。他们可以使用电子邮件,网站和其他来源的输入来编写代码,管理任务并做出决策。这赋予了他们强大的力量,但也带来了新的安全问题。旧保护方法[…]从越狱到注射的帖子:元如何加强与Llama防火墙的AI安全性,首先出现在Unite.ai上。

创建一个用LlamainDex的高级知识发现的代理抹布应用

Create an agentic RAG application for advanced knowledge discovery with LlamaIndex, and Mistral in Amazon Bedrock

在这篇文章中,我们演示了使用LlamainDex框架构建代理RAG应用程序的示例。 LlamainDex是将FMS连接到外部数据源的框架。它有助于从数据库,API,PDF等摄入,结构和检索信息,从而使代理和抹布适合AI应用程序。该应用程序用作研究工具,使用亚马逊基岩上的Mistral大2 FM产生对代理流量的响应。

Apoidea组如何使用亚马逊Sagemaker Hyperpod上使用Llama-Factory从银行文档中提取视觉信息

How Apoidea Group enhances visual information extraction from banking documents with multimodal models using LLaMA-Factory on Amazon SageMaker HyperPod

在这个专业信息提取解决方案的基础上建立了建立,并利用Sagemaker Hyperpod的功能,我们与Apoidea Group合作探索了使用大型视觉语言模型(LVLM)的使用,以进一步改善银行和财务文档上的表结构识别性能。在这篇文章中,我们介绍了使用Sagemaker Hyperpod上的Llama-Factory进行QWEN2-VL-7B教学模型进行微调的QWEN2-VL-7B教学模型的逐步代码。

Meta Llama的最佳实践3.2亚马逊基岩上的多模式微调

Best practices for Meta Llama 3.2 multimodal fine-tuning on Amazon Bedrock

在这篇文章中,我们分享了针对亚马逊基岩上微调元美洲拉玛3.2多模式的全面最佳实践和科学见解。通过遵循这些准则,您可以微调较小,更具成本效益的模型,以实现可与之匹配甚至超过更大模型的性能,可以降低推理成本和潜伏期,同时保持特定用例的高精度。

使用LlamainDex

Building a RAG Application Using LlamaIndex

使用检索演出的生成和LlamainDex通过实时文档检索和动态知识集成来增强语言模型。

[AI SHOW第144集]:Chatgpt的新记忆,Shopify首席执行官的“ AI First”备忘录,Google Cloud Next Seals发行,O3和O4-Mini即将发布,Llama 4的Rocky Punains

[The AI Show Episode 144]: ChatGPT’s New Memory, Shopify CEO’s Leaked “AI First” Memo, Google Cloud Next Releases, o3 and o4-mini Coming Soon & Llama 4’s Rocky Launch

Next从Google Cloud返回,Paul和Mike又回来了一些AI的重大更新。他们从Chatgpt的新内存功能开始,并解开这对您的数据(以及您的日常工作流程)意味着什么。然后是Shopify泄露的备忘录:没有新员工,直到AI证明它无法完成这项工作。 DataBox通过用机器人代替80%的支持团队,并实际上提高了性能。

Llama 4 Meta的模型家族现在可以在Sagemaker Jumpstart

Llama 4 family of models from Meta are now available in SageMaker JumpStart

今天,我们很高兴地宣布亚马逊萨吉式制造商Jumpstart的Llama 4 Scout和MaverickModels的可用性。在这篇博客文章中,我们将带您了解如何使用SageMaker Jumpstart进行部署和提示Allama-4-Scout-17b-16e-Inscruct模型。

免费访问Llama 4的3种方法

3 Ways to Access Llama 4 for Free

在几秒钟内毫不费力地体验最先进的AI型号。

开源AI与Meta的Llama 4

Open-Source AI Strikes Back With Meta’s Llama 4

在过去的几年中,AI世界已从公开合作的文化转变为受保护的专有系统主导的文化。 Openai - 一家以“开放式”为名的公司,旨在在2019年之后保持其最强大的模型秘密。诸如Anthropic和Google之类的竞争对手类似地构建了尖端的AI […]邮政开源AI与Meta的Llama 4击中,首先在Unite.ai上出现了Meta的Llama 4。

Nemo Retriever Llama 3.2文本嵌入和重新固定NVIDIA NIM微服务现在在Amazon Sagemaker Jumpstart

NeMo Retriever Llama 3.2 text embedding and reranking NVIDIA NIM microservices now available in Amazon SageMaker JumpStart

今天,我们很高兴地宣布,Nemo Retriever Llama3.2文本嵌入和重新启动NVIDIA NIM微服务可在Amazon Sagemaker Jumpstart中获得。通过此发布,您现在可以部署NVIDIA优化的重新骑行和嵌入模型来构建,实验和负责任地扩展您的生成AI想法。在这篇文章中,我们演示了如何在Sagemaker Jumpstart上开始这些模型。

使用亚马逊基岩,LlamainDex和Ragas

Evaluate RAG responses with Amazon Bedrock, LlamaIndex and RAGAS

在这篇文章中,我们将探讨如何利用亚马逊基岩,LlamainDex和Ragas来增强您的抹布实现。您将学习实用的技术来评估和优化您的AI系统,从而实现与组织特定需求保持一致的更准确,上下文感知的响应。

在本地使用 Llama 3.2-Vision:分步指南

Using Llama 3.2-Vision Locally: A Step-by-Step Guide

通过其直观的用户界面或强大的端点服务在本地与先进的多模式 Llama 模型进行交互。

使用 Amazon Bedrock 自定义模型导入部署 DeepSeek-R1 精简版 Llama 模型

Deploy DeepSeek-R1 distilled Llama models with Amazon Bedrock Custom Model Import

在本文中,我们将演示如何使用 Amazon Bedrock 自定义模型导入来部署精简版的 DeepSeek-R1 模型。我们专注于导入当前支持的变体 DeepSeek-R1-Distill-Llama-8B 和 DeepSeek-R1-Distill-Llama-70B,它们在性能和资源效率之间实现了最佳平衡。

Nvidia 为 Agentic AI 推出 Llama Nemotron LLM

Nvidia Launches Llama Nemotron LLMs for Agentic AI

为何重要:Nvidia 为 Agentic AI 推出 Llama Nemotron LLM,通过更智能、自适应和可扩展的 AI 解决方案推动创新。

RadiologyLlama-70B:放射学报告的新语言模型

RadiologyLlama-70B: A new language model for radiology reports

RadiologyLlama-70B 是一种先进的 AI 模型,经过超过 650 万份医疗报告的训练,可增强对放射学发现的分析。该模型可以显著改善放射科医生的工作流程,在降低计算成本的同时提供卓越的准确性。

使用 AWS Trainium 在 SageMaker HyperPod 上对 Llama 3 进行 PEFT 微调 ​​

PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium

在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。

Llama 3.3 70B 现已在 Amazon SageMaker JumpStart 中提供

Llama 3.3 70B now available in Amazon SageMaker JumpStart

今天,我们很高兴地宣布 Meta 的 Llama 3.3 70B 已在 Amazon SageMaker JumpStart 中推出。 Llama 3.3 70B 标志着大型语言模型 (LLM) 开发方面取得了令人兴奋的进步,它以更少的计算资源提供了与大型 Llama 版本相当的性能。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型,并使用高级 SageMaker AI 功能实现最佳性能和成本管理。