llama关键词检索结果

在本地使用 Llama 3.2-Vision:分步指南

Using Llama 3.2-Vision Locally: A Step-by-Step Guide

通过其直观的用户界面或强大的端点服务在本地与先进的多模式 Llama 模型进行交互。

Realbotix 推进其人形机器人的第三方 AI 集成

Realbotix Advances Third Party AI Integration for its Humanoid Robots

此次更新将使用户能够将 Realbotix 机器人无缝连接到最常用的 AI 平台,包括 OpenAI 的 ChatGPT、Meta 的 Llama、Google 的 Gemini 和新推出的 DeepSeek R1。Realbotix 集成各种第三方 AI 平台的能力为其机器人平台提供了额外的定制级别。

使用 Amazon Bedrock 自定义模型导入部署 DeepSeek-R1 精简版 Llama 模型

Deploy DeepSeek-R1 distilled Llama models with Amazon Bedrock Custom Model Import

在本文中,我们将演示如何使用 Amazon Bedrock 自定义模型导入来部署精简版的 DeepSeek-R1 模型。我们专注于导入当前支持的变体 DeepSeek-R1-Distill-Llama-8B 和 DeepSeek-R1-Distill-Llama-70B,它们在性能和资源效率之间实现了最佳平衡。

RAG 与微调:哪一个适合您的 LLM?

RAG vs. Fine-Tuning: Which One Suits Your LLM?

大型语言模型 (LLM)(例如 GPT-4 和 Llama 3)已经影响了 AI 领域,并在从客户服务到内容生成的各个方面都表现出色。但是,根据特定需求调整这些模型通常意味着在两种强大的技术之间进行选择:检索增强生成 (RAG) 和微调。虽然这两种方法都增强了 LLM,但它们针对不同的[…]

Nvidia 为 Agentic AI 推出 Llama Nemotron LLM

Nvidia Launches Llama Nemotron LLMs for Agentic AI

为何重要:Nvidia 为 Agentic AI 推出 Llama Nemotron LLM,通过更智能、自适应和可扩展的 AI 解决方案推动创新。

nvidia推出了代理AI

Nvidia Launches Llama Nemotron LLMs for Agentic AI

它很重要:NVIDIA推出了针对代理AI的Llama Nemotron LLM,以更智能,自适应和可扩展的AI解决方案推动创新。

本周免费且实用的课堂人工智能工具

This Week’s Free & Useful Artificial Intelligence Tools For The Classroom

至少,现在,我将每周发布一次这个专题,重点介绍课堂上可以使用的最佳全新且免费的人工智能工具的新增内容。以下是最新消息:Llama Tutor 很有趣——它是一个 AI 聊天机器人,但专门用于教学。[…]

中国DeepSeek-V3最佳开放AI模型

Kinesiska DeepSeek-V3 bästa öppna AI-modellen

DeepSeek是一家中国人工智能公司,推出了DeepSeek V3,这是一个开源人工智能模型,包含6710亿个参数,并在NVIDIA H800 GPU上训练了超过278.8万小时。该模型在各种对比测试中均优于 Meta 的 Llama 3.1 和 OpenAI 的 GPT-4 等竞争对手。中国人工智能公司DeepSeek发布了新的语言模型DeepSeek V3,它超越了开放[…]中国DeepSeek-V3最佳开放人工智能模型首次出现在人工智能新闻上。

RadiologyLlama-70B:放射学报告的新语言模型

RadiologyLlama-70B: A new language model for radiology reports

RadiologyLlama-70B 是一种先进的 AI 模型,经过超过 650 万份医疗报告的训练,可增强对放射学发现的分析。该模型可以显著改善放射科医生的工作流程,在降低计算成本的同时提供卓越的准确性。

使用 AWS Trainium 在 SageMaker HyperPod 上对 Llama 3 进行 PEFT 微调 ​​

PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium

在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。

Llama 3.3 70B 现已在 Amazon SageMaker JumpStart 中提供

Llama 3.3 70B now available in Amazon SageMaker JumpStart

今天,我们很高兴地宣布 Meta 的 Llama 3.3 70B 已在 Amazon SageMaker JumpStart 中推出。 Llama 3.3 70B 标志着大型语言模型 (LLM) 开发方面取得了令人兴奋的进步,它以更少的计算资源提供了与大型 Llama 版本相当的性能。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型,并使用高级 SageMaker AI 功能实现最佳性能和成本管理。

合作伙伴聚焦:Cerebras 如何加速 AI 应用开发

Partner spotlight: How Cerebras accelerates AI app development

了解如何使用 Cerebras 和 DataRobot 通过 Llama 3.1-70B 开发 AI 应用程序。以更快的推理速度构建、自定义和测试 LLM。文章“合作伙伴聚焦:Cerebras 如何加速 AI 应用程序开发”首先出现在 DataRobot 上。

AI 中的代理内存:持久内存如何重新定义 LLM 应用程序

Agent Memory in AI: How Persistent Memory Could Redefine LLM Applications

人工智能 (AI) 从根本上改变了我们的生活、工作和交流方式。大型语言模型 (LLM),例如 GPT-4、BERT、Llama 等,在对话式人工智能方面取得了显着进步,提供了快速且类似人类的响应。然而,这些系统受到一个关键缺点的限制,无法在单个会话之外保留上下文。一旦交互 […]The post Agent Memory in AI: How Persistent Memory Could Redefine LLM Applications appeared first on Unite.AI.

使用全新改进的 Amazon SageMaker Python SDK 加速您的 ML 生命周期 - 第 2 部分:ModelBuilder

Accelerate your ML lifecycle using the new and improved Amazon SageMaker Python SDK – Part 2: ModelBuilder

在本系列的第 1 部分中,我们介绍了 Amazon SageMaker Python SDK 上新推出的 ModelTrainer 类及其优势,并向您展示了如何在自定义数据集上微调 Meta Llama 3.1 8B 模型。在这篇文章中,我们将介绍 ModelBuilder 类的增强功能,它允许您将模型从 ModelTrainer 无缝部署到 SageMaker 终端节点,并为多种部署配置提供单一界面。

[AI Show 第 126 集]:OpenAI 12 天:o1、ChatGPT Pro、Sora、对 Altman、Pichai 和 Bezos 的新采访、Amazon Nova 和 David Sacks 是美国“AI 沙皇”

[The AI Show Episode 126]: 12 Days of OpenAI: o1, ChatGPT Pro, Sora, New Interviews with Altman, Pichai, and Bezos, Amazon Nova & David Sacks Is US “AI Czar”

12 月即将成为激动人心的新品发布季 — 这份礼物会源源不断地送出!从 OpenAI 的 12 天“Shipmas”到亚马逊的最新车型系列 Llama 3.3,再到 Hume AI 的创新语音控制,发布会的脚步丝毫没有放缓的迹象。欢迎与主持人 Paul Roetzer 和 Mike Kaput 一起探索这些塑造行业未来的最新发展。此外,您还可以从 DealBook 峰会上对主要 AI 领导者的采访中获得关键见解,了解 OpenAI-Microsoft 合作伙伴关系不断发展的动态,以及 David Sacks 作为特朗普政府 AI 和加密顾问的有趣角色 — 等等。

生成逻辑

Generative Logic

阿里巴巴的最新模型 QwQ-32B-Preview 因其推理能力而获得了一些令人印象深刻的评价。与 OpenAI 的 GPT-4 o1,1 一样,它的训练强调推理,而不仅仅是再现语言。这似乎是一件值得尝试的事情——或者至少值得尝试一下——所以当我听说它很快就在 Ollama 上可用,而且规模不大时 […]

联想和摩托罗拉在 Tech World 2024 上推出超个性化 AI 助手:个性化 AI 的未来还是侵犯隐私?

Lenovo and Motorola Unveil Hyper-Personalized AI Assistants at Tech World 2024: The Future of Personalized AI or Privacy Infringers?

在联想的 Tech World 2024 上,联想和摩托罗拉都展示了突破性的人工智能 (AI) 创新,旨在突破消费技术超个性化的界限。联想推出了“AI Now”,这是一款基于 Meta 的 Llama 3.1 AI 模型构建的生成人工智能 (genAI) 系统,它有望通过将 PC 变成个性化数字助理来使其变得更智能。 […] 帖子联想和摩托罗拉在 Tech World 2024 上推出超个性化 AI 助理:个性化 AI 的未来还是侵犯隐私?首次出现在 Unite.AI 上。

使用 Amazon EKS 和 vLLM 在 AWS Inferentia 上部署 Meta Llama 3.1-8B

Deploy Meta Llama 3.1-8B on AWS Inferentia using Amazon EKS and vLLM

在本文中,我们将介绍使用 Amazon EKS 在 Inferentia 2 实例上部署 Meta Llama 3.1-8B 模型的步骤。此解决方案将 Inferentia 2 芯片的卓越性能和成本效益与 Amazon EKS 的强大和灵活的环境相结合。Inferentia 2 芯片提供高吞吐量和低延迟推理,非常适合 LLM。