llama关键词检索结果

元AI的可扩展内存层:AI效率和性能的未来

Meta AI’s Scalable Memory Layers: The Future of AI Efficiency and Performance

人工智能(AI)以前所未有的速度发展,大规模模型达到了新的智能和能力水平。从早期的神经网络到当今的高级体系结构,例如GPT-4,Llama和其他大型语言模型(LLMS),AI正在改变我们与技术的互动。这些模型可以处理大量数据,生成类似人类的文本,协助[…]元AI的可扩展记忆层:AI效率和性能的未来首先出现在Unite.ai上。

元人员下载了将近82汤匙海盗培训书籍

Meta-personal laddade ner nästan 82 TB av piratkopierade böcker för AI-träning

Meta出现在该公司已下载了近82台TBYTE(TB)的盗版书籍来培训其AI模型,尤其是Llama之后,面临严重的版权侵权指控。根据最近发布的法律文件,Meta使用了所谓的“影子图书馆”,例如Anna的档案,Z-Library和Libgen收集这些[…]元人员下载了将近82吨海盗培训书籍的AI培训,首先出现在AI新闻中。

NIH研究的“间接成本”

The 'Indirect Costs' of NIH Research

McKenzie Prillaman&Alex Viveros,Sciencenews Pamela Canaday喜欢她的工作。在过去的20年中,她一直在支持俄勒冈州健康与科学大学的生物医学研究实验室...

100 个生成式 AI 用例

100 Generative AI Use Cases

生成式人工智能正在通过自动化任务、增强创造力和提高效率来彻底改变行业。从内容创作到科学研究,ChatGPT GPT-4o、Gemini 2.0、Llama 3.1 405B、Deepseek、DALL·E 和 Stable Diffusion 等人工智能模型正在释放新的可能性。从 Google 趋势图可以看出,在 2022 年 10 月 ChatGPT 推出后,人们对生成式 AI 的兴趣激增。到 2026 年,预计超过 80% 的公司将集成生成式 AI API、模型或在生产中部署由 GenAI 驱动的应用程序——这一比例比 2023 年的不到 5% 大幅上升。根据 Statista 的数据,生

在本地使用 Llama 3.2-Vision:分步指南

Using Llama 3.2-Vision Locally: A Step-by-Step Guide

通过其直观的用户界面或强大的端点服务在本地与先进的多模式 Llama 模型进行交互。

Realbotix 推进其人形机器人的第三方 AI 集成

Realbotix Advances Third Party AI Integration for its Humanoid Robots

此次更新将使用户能够将 Realbotix 机器人无缝连接到最常用的 AI 平台,包括 OpenAI 的 ChatGPT、Meta 的 Llama、Google 的 Gemini 和新推出的 DeepSeek R1。Realbotix 集成各种第三方 AI 平台的能力为其机器人平台提供了额外的定制级别。

使用 Amazon Bedrock 自定义模型导入部署 DeepSeek-R1 精简版 Llama 模型

Deploy DeepSeek-R1 distilled Llama models with Amazon Bedrock Custom Model Import

在本文中,我们将演示如何使用 Amazon Bedrock 自定义模型导入来部署精简版的 DeepSeek-R1 模型。我们专注于导入当前支持的变体 DeepSeek-R1-Distill-Llama-8B 和 DeepSeek-R1-Distill-Llama-70B,它们在性能和资源效率之间实现了最佳平衡。

RAG 与微调:哪一个适合您的 LLM?

RAG vs. Fine-Tuning: Which One Suits Your LLM?

大型语言模型 (LLM)(例如 GPT-4 和 Llama 3)已经影响了 AI 领域,并在从客户服务到内容生成的各个方面都表现出色。但是,根据特定需求调整这些模型通常意味着在两种强大的技术之间进行选择:检索增强生成 (RAG) 和微调。虽然这两种方法都增强了 LLM,但它们针对不同的[…]

Nvidia 为 Agentic AI 推出 Llama Nemotron LLM

Nvidia Launches Llama Nemotron LLMs for Agentic AI

为何重要:Nvidia 为 Agentic AI 推出 Llama Nemotron LLM,通过更智能、自适应和可扩展的 AI 解决方案推动创新。

nvidia推出了代理AI

Nvidia Launches Llama Nemotron LLMs for Agentic AI

它很重要:NVIDIA推出了针对代理AI的Llama Nemotron LLM,以更智能,自适应和可扩展的AI解决方案推动创新。

本周免费且实用的课堂人工智能工具

This Week’s Free & Useful Artificial Intelligence Tools For The Classroom

至少,现在,我将每周发布一次这个专题,重点介绍课堂上可以使用的最佳全新且免费的人工智能工具的新增内容。以下是最新消息:Llama Tutor 很有趣——它是一个 AI 聊天机器人,但专门用于教学。[…]

中国DeepSeek-V3最佳开放AI模型

Kinesiska DeepSeek-V3 bästa öppna AI-modellen

DeepSeek是一家中国人工智能公司,推出了DeepSeek V3,这是一个开源人工智能模型,包含6710亿个参数,并在NVIDIA H800 GPU上训练了超过278.8万小时。该模型在各种对比测试中均优于 Meta 的 Llama 3.1 和 OpenAI 的 GPT-4 等竞争对手。中国人工智能公司DeepSeek发布了新的语言模型DeepSeek V3,它超越了开放[…]中国DeepSeek-V3最佳开放人工智能模型首次出现在人工智能新闻上。

RadiologyLlama-70B:放射学报告的新语言模型

RadiologyLlama-70B: A new language model for radiology reports

RadiologyLlama-70B 是一种先进的 AI 模型,经过超过 650 万份医疗报告的训练,可增强对放射学发现的分析。该模型可以显著改善放射科医生的工作流程,在降低计算成本的同时提供卓越的准确性。

使用 AWS Trainium 在 SageMaker HyperPod 上对 Llama 3 进行 PEFT 微调 ​​

PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium

在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。

Llama 3.3 70B 现已在 Amazon SageMaker JumpStart 中提供

Llama 3.3 70B now available in Amazon SageMaker JumpStart

今天,我们很高兴地宣布 Meta 的 Llama 3.3 70B 已在 Amazon SageMaker JumpStart 中推出。 Llama 3.3 70B 标志着大型语言模型 (LLM) 开发方面取得了令人兴奋的进步,它以更少的计算资源提供了与大型 Llama 版本相当的性能。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型,并使用高级 SageMaker AI 功能实现最佳性能和成本管理。

合作伙伴聚焦:Cerebras 如何加速 AI 应用开发

Partner spotlight: How Cerebras accelerates AI app development

了解如何使用 Cerebras 和 DataRobot 通过 Llama 3.1-70B 开发 AI 应用程序。以更快的推理速度构建、自定义和测试 LLM。文章“合作伙伴聚焦:Cerebras 如何加速 AI 应用程序开发”首先出现在 DataRobot 上。

AI 中的代理内存:持久内存如何重新定义 LLM 应用程序

Agent Memory in AI: How Persistent Memory Could Redefine LLM Applications

人工智能 (AI) 从根本上改变了我们的生活、工作和交流方式。大型语言模型 (LLM),例如 GPT-4、BERT、Llama 等,在对话式人工智能方面取得了显着进步,提供了快速且类似人类的响应。然而,这些系统受到一个关键缺点的限制,无法在单个会话之外保留上下文。一旦交互 […]The post Agent Memory in AI: How Persistent Memory Could Redefine LLM Applications appeared first on Unite.AI.

使用全新改进的 Amazon SageMaker Python SDK 加速您的 ML 生命周期 - 第 2 部分:ModelBuilder

Accelerate your ML lifecycle using the new and improved Amazon SageMaker Python SDK – Part 2: ModelBuilder

在本系列的第 1 部分中,我们介绍了 Amazon SageMaker Python SDK 上新推出的 ModelTrainer 类及其优势,并向您展示了如何在自定义数据集上微调 Meta Llama 3.1 8B 模型。在这篇文章中,我们将介绍 ModelBuilder 类的增强功能,它允许您将模型从 ModelTrainer 无缝部署到 SageMaker 终端节点,并为多种部署配置提供单一界面。