Pixtral 12B is now available on Amazon SageMaker JumpStart
今天,我们很高兴地宣布,Pixtral 12B (pixtral-12b-2409) 是一款由 Mistral AI 开发的先进视觉语言模型 (VLM),在纯文本和多模式任务中均表现出色,现已通过 Amazon SageMaker JumpStart 向客户提供。您可以使用 SageMaker JumpStart 试用此模型,SageMaker JumpStart 是一个机器学习 (ML) 中心,可访问算法和模型,只需单击一下即可部署这些算法和模型以运行推理。在这篇文章中,我们将介绍如何发现、部署和使用 Pixtral 12B 模型来处理各种现实世界的视觉用例。
Quantum Computers Cross Critical Error Threshold
Ben Brubaker,Quanta Magazine 如何用不完美的零件构造出一台完美的机器?这是研究人员构建量子计算机的核心挑战。问题是......
借助各种生成式 AIfoundation 模型 (FM) 以及在 AmazonSageMaker 中构建和训练自己的机器学习 (ML) 模型的能力,用户希望以无缝且安全的方式试验和选择能够为其业务带来最大价值的模型。在 ML 的初始阶段 […]
7 Online Resources About Creating a #MakerSpace
学校创客空间是一个动手、创造性的环境,学生可以在这里探索 STEM(科学、技术、工程和数学)和其他……
United Airline adds viral dessert to their menu!
美国联合航空公司最近宣布,他们将在机上菜单中添加一种流行甜点。联合航空公司与以香蕉布丁闻名的 Magnolia Bakery 合作,为他们的客户提供一系列新食品。1996 年,Magnolia Bakery 在纽约西村开设了第一家分店。他们 […]联合航空公司将流行甜点添加到他们的菜单中!这篇文章首次出现在 Travel Radar - Aviation News 上。
Mistral-NeMo-Instruct-2407 and Mistral-NeMo-Base-2407 are now available on SageMaker JumpStart
今天,我们很高兴地宣布,Mistral AI 的 Mistral-NeMo-Base-2407 和 Mistral-NeMo-Instruct-2407 大型语言模型在文本生成方面表现优异,可通过 Amazon SageMaker JumpStart 供客户使用。在本文中,我们将介绍如何发现、部署和使用 Mistral-NeMo-Instruct-2407 和 Mistral-NeMo-Base-2407 模型来处理各种实际用例。
我上周在 Twitter 上发布的一些有趣链接(我也在 Mastodon、Threads、Newsmast 和 Bluesky 上发布了这些链接):LinkedIn 上的大多数帖子都是由人工智能生成的:https://www.theregister.com/2024/11/28/linkedin_ai_posts/ 光数据传输是满足人工智能计算需求的关键:https://www.theregister.com/2024/11/28/ai_copper_cables_limits/ 谷歌人工智能计划可能面临的法律障碍:https://arstechnica.com/tech-policy/202
Deploy RAG applications on Amazon SageMaker JumpStart using FAISS
在本文中,我们展示了如何使用 Facebook AI 相似性搜索 (FAISS) 在 Amazon SageMaker JumpStart 上构建 RAG 应用程序。
Speed up your cluster procurement time with Amazon SageMaker HyperPod training plans
在本文中,我们将演示如何使用 Amazon SageMaker HyperPod 训练计划来缩短训练集群采购等待时间。我们将逐步指导您如何使用 (AWS CLI) 或 AWS 管理控制台查找、查看和创建适合您特定计算和时间线需求的最佳训练计划。我们将进一步指导您使用训练计划提交 SageMaker 训练作业或创建 SageMaker HyperPod 集群。
Real value, real time: Production AI with Amazon SageMaker and Tecton
在本文中,我们讨论了 Amazon SageMaker 和 Tecton 如何协同工作以简化可用于生产的 AI 应用程序的开发和部署,尤其是对于欺诈检测等实时用例。通过抽象复杂的工程任务,该集成可以加快价值实现速度,使团队能够专注于构建功能和用例,同时为 ML 模型的离线训练和在线服务提供精简的框架。
Use Amazon Bedrock tooling with Amazon SageMaker JumpStart models
在本文中,我们探讨了如何从 SageMaker JumpStart 部署 AI 模型并将它们与 Amazon Bedrock 的强大功能一起使用。用户可以将 SageMaker JumpStart 的模型托管与 Bedrock 的安全和监控工具相结合。我们以 Gemma 2 9B Instruct 模型为例进行了演示,展示了如何部署它并使用 Bedrock 的高级功能。
Build generative AI applications quickly with Amazon Bedrock IDE in Amazon SageMaker Unified Studio
在本文中,我们将展示贵公司中的任何人都可以使用 Amazon Bedrock IDE 快速创建生成式 AI 聊天代理应用程序来分析销售绩效数据。通过简单的对话,业务团队可以使用聊天代理从结构化和非结构化数据源中提取有价值的见解,而无需编写代码或管理复杂的数据管道。
Scale ML workflows with Amazon SageMaker Studio and Amazon SageMaker HyperPod
Amazon SageMaker Studio 和 Amazon SageMaker HyperPod 的集成提供了一种简化的解决方案,为数据科学家和 ML 工程师提供了一个全面的环境,支持从开发到大规模部署的整个 ML 生命周期。在这篇文章中,我们将引导您完成使用 SageMaker Studio 和 SageMaker HyperPod 扩展 ML 工作负载的过程。
Building Generative AI and ML solutions faster with AI apps from AWS partners using Amazon SageMaker
今天,我们很高兴地宣布,来自 AWS 合作伙伴的 AI 应用程序现已在 SageMaker 中可用。您现在可以私密且安全地查找、部署和使用这些 AI 应用程序,而无需离开 SageMaker AI,因此您可以更快地开发高性能 AI 模型。
Amazon SageMaker launches the updated inference optimization toolkit for generative AI
今天,Amazon SageMaker 很高兴宣布对推理优化工具包进行更新,提供新功能和增强功能,以帮助您更快地优化生成式 AI 模型。在这篇文章中,我们将更详细地讨论该工具包的这些新功能。
Speed up your AI inference workloads with new NVIDIA-powered capabilities in Amazon SageMaker
在 re:Invent 2024 上,我们很高兴地宣布了新功能,利用 Amazon SageMaker 上的 NVIDIA 加速计算和软件产品来加速您的 AI 推理工作负载。在这篇文章中,我们将探讨如何使用这些新功能来增强您在 Amazon SageMaker 上的 AI 推理。我们将介绍从 AWS Marketplace 为 SageMaker Inference 部署 NVIDIA NIM 微服务的过程。然后,我们将深入介绍 NVIDIA 在 SageMaker JumpStart 上提供的模型,展示如何直接在 JumpStart 界面中访问和部署 Nemotron-4 模型。这将包括分步
Unlock cost savings with the new scale down to zero feature in SageMaker Inference
今天在 AWS re:Invent 2024 上,我们很高兴地宣布 Amazon SageMaker 推理终端节点的一项新功能:能够将 SageMaker 推理终端节点扩展到零个实例。这项期待已久的功能对于使用云中的 AI 和机器学习 (ML) 推理功能的客户来说是一个改变游戏规则的功能。
今天,在 AWS re:Invent 2024 大会上,我们很高兴地宣布 Amazon SageMaker 中推出了新的容器缓存功能,该功能可显著缩短扩展生成式 AI 模型进行推理所需的时间。这项创新让您能够更快地扩展模型,在扩展新模型副本时,延迟可降低高达 56%,在新实例上添加模型副本时,延迟可降低高达 30%。在本文中,我们将探讨 SageMaker 推理的新容器缓存功能,以应对部署和扩展大型语言模型 (LLM) 的挑战。