今天,我们很高兴地宣布,Mistral-Small-3.2-24B-Instruct-2506 - Mistral AI的240亿参数大语言模型(LLM),该模型(LLM)已优化,可通过Amazon Sagemaker Jumpstart和Amazon Bedrock Market Place,可用于增强跟随和减少的重复错误,并减少重复错误。亚马逊基岩市场是亚马逊基岩的一种能力,开发人员可以用来发现,测试和使用[…]
Evaluating generative AI models with Amazon Nova LLM-as-a-Judge on Amazon SageMaker AI
评估大语言模型(LLM)的性能超出了统计指标,例如困惑或双语评估研究(BLEU)得分。对于大多数真实世界的生成AI方案,重要的是要了解模型是否比基线或更早的迭代产生更好的输出。这对于诸如摘要,内容生成,[…]
组织正在采用大型语言模型(LLM),例如DeepSeek R1,以改变业务流程,增强客户体验并以前所未有的速度推动创新。但是,独立的LLM具有关键的局限性,例如幻觉,过时的知识和无法获得专有数据的访问。检索增强发电(RAG)通过将语义搜索与生成AI相结合,[…]
How Rapid7 automates vulnerability risk scores with ML pipelines using Amazon SageMaker AI
在这篇文章中,我们分享了Rapid7如何实施端到端自动化,以用于预测CVSS向量的ML模型的培训,验证和部署。 Rapid7客户拥有所需的信息,以准确了解其风险并确定补救措施。
Advanced fine-tuning methods on Amazon SageMaker AI
在AWS上微调ML模型时,您可以为您的特定需求选择合适的工具。 AWS为数据科学家,ML工程师和业务用户提供了一系列全面的工具,以实现其ML目标。 AWS建立了支持各种ML复杂性的解决方案,从简单的Sagemaker培训工作进行FM微调到萨吉马制造商Hyperpod的力量进行尖端研究。我们邀请您探索这些选项,从适合您当前需求的内容开始,并随着这些需求的变化而发展您的方法。
Streamline machine learning workflows with SkyPilot on Amazon SageMaker HyperPod
这篇文章与Skypilot共同创建者Zhanghao Wu共同撰写。生成AI和基础模型(FMS)的快速发展已大大提高了机器学习(ML)工作量的计算资源需求。现代ML管道需要有效的系统来在加速的计算资源上分配工作负载,同时确保开发人员的生产率仍然很高。组织需要基础架构解决方案[…]
Implement user-level access control for multi-tenant ML platforms on Amazon SageMaker AI
在这篇文章中,我们讨论了权限管理策略,重点介绍了基于属性的访问控制(ABAC)模式,这些模式可实现粒度用户访问控制,同时最大程度地减少AWS身份和访问管理(IAM)角色的扩散。我们还分享了经过验证的最佳实践,可帮助组织维持安全性和合规性,而无需牺牲其ML工作流程的运营效率。
New capabilities in Amazon SageMaker AI continue to transform how organizations develop AI models
在这篇文章中,我们分享了Sagemaker AI中的一些新创新,这些创新可以加速您的构建和培训AI模型。这些创新包括SageMaker Hyperpod中的新可观察性功能,在HyperPod上部署JumpStart模型的能力,从本地开发环境中与SageMaker AI的远程连接以及完全管理的MLFLOW 3.0。
Accelerate foundation model development with one-click observability in Amazon SageMaker HyperPod
With a one-click installation of the Amazon Elastic Kubernetes Service (Amazon EKS) add-on for SageMaker HyperPod observability, you can consolidate health and performance data from NVIDIA DCGM, instance-level Kubernetes node exporters, Elastic Fabric Adapter (EFA), integrated file systems, Kubernet
Accelerating generative AI development with fully managed MLflow 3.0 on Amazon SageMaker AI
在这篇文章中,我们探讨了Amazon Sagemaker如何为MLFLOW 3.0提供全面管理的支持,简化了AI实验并加速了您从想法到生产的生成性AI旅程。该版本将托管的MLFlow从实验跟踪转换为提供端到端可观察性,从而缩短了生成AI开发的市场时间。
在这篇文章中,我们宣布了亚马逊萨吉马制造商Hyperpod支持,用于从SageMaker Jumpstart部署基础模型,以及来自Amazon S3或Amazon FSX的自定义或微调模型。这种新功能使客户可以在相同的HyperPod计算资源上训练,微调和部署模型,从而最大程度地利用整个模型生命周期的资源利用率。
Configure fine-grained access to Amazon Bedrock models using Amazon SageMaker Unified Studio
在这篇文章中,我们演示了如何使用SageMaker Unified Studio和AWS Identity and Access Management(IAM)来为Amazon Bedrock模型建立强大的许可框架。我们展示了管理员如何在安全,协作的环境中精确管理哪些用户和团队可以访问特定模型。我们指导您创建粒状权限以控制模型访问,并使用常见企业治理方案的代码示例。
Cohere Embed 4 multimodal embeddings model is now available on Amazon SageMaker JumpStart
Cohere Embered 4多模式嵌入模型现在通常可以在Amazon Sagemaker Jumpstart上获得。 Embed 4模型是为多模式业务文档构建的,具有领先的多语言功能,并且对跨关键基准测试的嵌入3提供了显着的改进。在这篇文章中,我们讨论了这种新模型的好处和功能。我们还可以使用Sagemaker Jumpstart引导您完成如何部署和使用嵌入4型号的型号。
End-to-End model training and deployment with Amazon SageMaker Unified Studio
In this post, we guide you through the stages of customizing large language models (LLMs) with SageMaker Unified Studio and SageMaker AI, covering the end-to-end process starting from data discovery to fine-tuning FMs with SageMaker AI distributed training, tracking metrics using MLflow, and then de
在这篇文章中,我们展示了如何使用Amazon OpenSearch服务作为矢量存储来构建有效的RAG应用程序。
Use Amazon SageMaker Unified Studio to build complex AI workflows using Amazon Bedrock Flows
在这篇文章中,我们演示了如何使用SageMaker Unified Studio使用Amazon Bedrock Flow创建复杂的AI工作流程。
Build and deploy AI inference workflows with new enhancements to the Amazon SageMaker Python SDK
在这篇文章中,我们提供了用户体验的概述,详细介绍了如何使用SageMaker Python SDK使用多个模型来设置和部署这些工作流程。我们介绍构建复杂推理工作流程,将它们部署到sagemaker端点的示例,并调用它们进行实时推理。
Using Amazon SageMaker AI Random Cut Forest for NASA’s Blue Origin spacecraft sensor data
在这篇文章中,我们演示了如何使用SageMaker AI应用随机砍伐森林(RCF)算法来检测NASA和Blue Origin的Spacecraft位置,速度和季度取向数据的异常,并证明了Lunar Deorbit,Descent和Landing Sensors(Boddl-tp)的蓝色起源。