Sagemaker关键词检索结果

使用 Amazon SageMaker Canvas 通过更轻松、更简单、更快速的机器学习增强您的 Amazon Redshift 云数据仓库

Enhance your Amazon Redshift cloud data warehouse with easier, simpler, and faster machine learning using Amazon SageMaker Canvas

在本文中,我们深入探讨了银行机构的业务用例。我们将向您展示银行的财务或业务分析师如何使用最适合当前业务问题的机器学习模型轻松预测客户的贷款是否会全额支付、注销或当前。

使用来自 Amazon Bedrock 的合成数据微调 BGE 嵌入模型

Fine-tune a BGE embedding model using synthetic data from Amazon Bedrock

在本文中,我们演示了如何使用 Amazon Bedrock 创建合成数据、微调 BAAI 通用嵌入 (BGE) 模型以及使用 Amazon SageMaker 进行部署。

在 Amazon SageMaker 上进行生成式 AI 基础模型训练

Generative AI foundation model training on Amazon SageMaker

在本文中,我们将探讨组织如何使用 AWS 托管服务(例如 Amazon SageMaker 训练作业和 Amazon SageMaker HyperPod)以经济高效的方式定制和调整 FM。我们将讨论这些强大的工具如何帮助组织优化计算资源并降低模型训练和微调的复杂性。我们将探讨如何做出明智的决定,确定哪种 Amazon SageMaker 服务最适合您的业务需求和要求。

使用 Amazon SageMaker Pipelines 的新可视化设计器自动微调 Llama 3.x 模型

Automate fine-tuning of Llama 3.x models with the new visual designer for Amazon SageMaker Pipelines

在这篇文章中,我们将向您展示如何设置自动化的 LLM 自定义(微调)工作流程,以便 Meta 的 Llama 3.x 模型可以为金融应用程序提供高质量的 SEC 文件摘要。微调允许您配置 LLM 以在特定于域的任务上实现更好的性能。

使用自定义 Amazon EFS 实例实现 Amazon SageMaker 域跨区域灾难恢复

Implement Amazon SageMaker domain cross-Region disaster recovery using custom Amazon EFS instances

在本文中,我们将指导您完成分步过程,以无缝地将您的 SageMaker 域从一个活动区域迁移到另一个被动或活动区域,包括所有相关的用户配置文件和文件。

使用 Amazon SageMaker 和 Qualcomm AI Hub 在边缘设备上训练、优化和部署模型

Train, optimize, and deploy models on edge devices using Amazon SageMaker and Qualcomm AI Hub

在本文中,我们将介绍一种使用 Amazon SageMaker 和 Qualcomm AI Hub 在边缘进行端到端模型定制和部署的创新解决方案。

使用 SageMaker Endpoint 通过 vLLM 部署您的 Llama 模型

Deploying Your Llama Model via vLLM using SageMaker Endpoint

利用 AWS 的 MLOps 平台为您的 LLM 模型提供服务继续阅读 Towards Data Science »

在 Amazon SageMaker HyperPod 中引入 Amazon EKS 支持

Introducing Amazon EKS support in Amazon SageMaker HyperPod

这篇文章专为 Kubernetes 集群管理员和 ML 科学家设计,概述了 SageMaker HyperPod 引入的关键功能,以促进在 EKS 集群上进行大规模模型训练。

Genomics England 使用 Amazon SageMaker 根据多模态数据预测癌症亚型和患者生存率

Genomics England uses Amazon SageMaker to predict cancer subtypes and patient survival from multi-modal data

在这篇文章中,我们详细介绍了我们在创建两个概念验证 (PoC) 练习方面的合作,这些练习围绕多模态机器学习进行生存分析和癌症亚型分析,使用基因组(基因表达、突变和拷贝数变异数据)和成像(组织病理学幻灯片)数据。我们提供了关于使用 Amazon SageMaker 在 AWS 上构建复杂 ML 工作流的可解释性、稳健性和最佳实践的见解。这些多模态管道正在 Genomics England 癌症队列中使用,以增强我们对癌症生物标志物和生物学的理解。

使用 DPO、Amazon SageMaker Studio 和 Amazon SageMaker Ground Truth 将 Meta Llama 3 与人类偏好保持一致

Align Meta Llama 3 to human preferences with DPO, Amazon SageMaker Studio, and Amazon SageMaker Ground Truth

在本文中,我们将向您展示如何通过使用直接偏好优化 (DPO) 对使用 SageMaker Ground Truth 收集的数据进行微调来提高 Meta Llama 3 8B Instruct 的性能。

在 Amazon SageMaker JumpStart 上微调 Llama 3 以生成文本

Fine-tune Llama 3 for text generation on Amazon SageMaker JumpStart

在本文中,我们将演示如何使用 Amazon SageMaker JumpStart 对 Meta 中最近发布的 Llama 3 模型(特别是 llama-3-8b 和 llama-3-70b 变体)进行微调。

使用 AWS Controllers for Kubernetes 部署 Amazon SageMaker 管道

Deploy Amazon SageMaker pipelines using AWS Controllers for Kubernetes

在本文中,我们展示了熟悉 Jupyter 笔记本和 SageMaker 环境的 ML 工程师如何与熟悉 Kubernetes 和相关工具的 DevOps 工程师高效合作,设计和维护具有适合其组织的基础架构的 ML 管道。这使 DevOps 工程师能够使用他们习惯的同一套工具和环境来管理 ML 生命周期的所有步骤。

使用 Amazon SageMaker Model Registry 有效管理生成式 AI 应用程序的基础模型

Effectively manage foundation models for generative AI applications with Amazon SageMaker Model Registry

在这篇文章中,我们探讨了 Model Registry 的新功能,这些功能简化了基础模型 (FM) 管理:您现在可以注册解压的模型工件并传递最终用户许可协议 (EULA) 接受标志,而无需用户干预。

汤森路透实验室如何利用 AWS MLOps 服务快速实现 AI/ML 创新

How Thomson Reuters Labs achieved AI/ML innovation at pace with AWS MLOps services

在本文中,我们将向您展示汤森路透实验室 (TR Labs) 如何通过采用使用 AWS SageMaker、SageMaker Experiments、SageMaker Model Registry 和 SageMaker Pipelines 的标准化 MLOps 框架来开发高效、灵活且功能强大的 MLOps 流程。目标是加快团队使用 AI 和机器学习 (ML) 进行实验和创新的速度——无论是使用自然语言处理 (NLP)、生成式 AI 还是其他技术。我们讨论了这如何帮助缩短新想法的上市时间并帮助构建具有成本效益的机器学习生命周期。

使用 LangChain 和 PySpark 通过 Amazon SageMaker Studio 和 Amazon EMR Serverless 大规模处理文档

Use LangChain with PySpark to process documents at massive scale with Amazon SageMaker Studio and Amazon EMR Serverless

在本文中,我们将探讨如何使用新的 EMR Serverless 集成、Spark 的分布式处理以及由 LangChain 编排框架提供支持的 Amazon OpenSearch Service 向量数据库构建可扩展且高效的检索增强生成 (RAG) 系统。此解决方案使您能够处理大量文本数据,生成相关嵌入,并将它们存储在强大的向量数据库中,以实现无缝检索和生成。

使用 Meta Llama 3 进行文本到 SQL 用例的提示工程最佳实践

Best practices for prompt engineering with Meta Llama 3 for Text-to-SQL use cases

在本文中,我们将探索一种解决方案,该解决方案使用向量引擎 ChromaDB 和 Meta Llama 3(托管在 SageMaker JumpStart 上的公开基础模型)来实现文本到 SQL 用例。我们分享了 Meta Llama 3 的简要历史、使用 Meta Llama 3 模型进行快速工程的最佳实践,以及使用少样本提示和 RAG 提取存储在 ChromaDB 中的相关模式的架构模式。

使用 Amazon SageMaker 上的 NVIDIA NIM 微服务加速生成式 AI 推理

Accelerate Generative AI Inference with NVIDIA NIM Microservices on Amazon SageMaker

在本文中,我们将演示客户如何通过 NVIDIA NIM 与 SageMaker 的集成来使用生成人工智能 (AI) 模型和 LLM。我们演示了这种集成的工作原理,以及如何在 SageMaker 上部署这些最先进的模型,以优化其性能和成本。

AWS AI 芯片为 AWS 上的 Llama 3.1 模型提供高性能和低成本

AWS AI chips deliver high performance and low cost for Llama 3.1 models on AWS

今天,我们很高兴地宣布 AWS Trainium 和 AWS Inferentia 支持 Llama 3.1 模型的微调和推理。Llama 3.1 系列多语言大型语言模型 (LLM) 是一组预先训练和指令调整的生成模型,大小分别为 8B、70B 和 405B。在上一篇文章中,我们介绍了如何在 Amazon SageMaker JumpStart 中基于 AWS Trainium 和 Inferentia 的实例上部署 Llama 3 模型。在这篇文章中,我们概述了如何开始在 AWS AI 芯片上微调和部署 Llama 3.1 系列模型,以实现其性价比优势。