在本文中,我们深入探讨了银行机构的业务用例。我们将向您展示银行的财务或业务分析师如何使用最适合当前业务问题的机器学习模型轻松预测客户的贷款是否会全额支付、注销或当前。
Fine-tune a BGE embedding model using synthetic data from Amazon Bedrock
在本文中,我们演示了如何使用 Amazon Bedrock 创建合成数据、微调 BAAI 通用嵌入 (BGE) 模型以及使用 Amazon SageMaker 进行部署。
Generative AI foundation model training on Amazon SageMaker
在本文中,我们将探讨组织如何使用 AWS 托管服务(例如 Amazon SageMaker 训练作业和 Amazon SageMaker HyperPod)以经济高效的方式定制和调整 FM。我们将讨论这些强大的工具如何帮助组织优化计算资源并降低模型训练和微调的复杂性。我们将探讨如何做出明智的决定,确定哪种 Amazon SageMaker 服务最适合您的业务需求和要求。
Automate fine-tuning of Llama 3.x models with the new visual designer for Amazon SageMaker Pipelines
在这篇文章中,我们将向您展示如何设置自动化的 LLM 自定义(微调)工作流程,以便 Meta 的 Llama 3.x 模型可以为金融应用程序提供高质量的 SEC 文件摘要。微调允许您配置 LLM 以在特定于域的任务上实现更好的性能。
Implement Amazon SageMaker domain cross-Region disaster recovery using custom Amazon EFS instances
在本文中,我们将指导您完成分步过程,以无缝地将您的 SageMaker 域从一个活动区域迁移到另一个被动或活动区域,包括所有相关的用户配置文件和文件。
Train, optimize, and deploy models on edge devices using Amazon SageMaker and Qualcomm AI Hub
在本文中,我们将介绍一种使用 Amazon SageMaker 和 Qualcomm AI Hub 在边缘进行端到端模型定制和部署的创新解决方案。
Deploying Your Llama Model via vLLM using SageMaker Endpoint
利用 AWS 的 MLOps 平台为您的 LLM 模型提供服务继续阅读 Towards Data Science »
Introducing Amazon EKS support in Amazon SageMaker HyperPod
这篇文章专为 Kubernetes 集群管理员和 ML 科学家设计,概述了 SageMaker HyperPod 引入的关键功能,以促进在 EKS 集群上进行大规模模型训练。
在这篇文章中,我们详细介绍了我们在创建两个概念验证 (PoC) 练习方面的合作,这些练习围绕多模态机器学习进行生存分析和癌症亚型分析,使用基因组(基因表达、突变和拷贝数变异数据)和成像(组织病理学幻灯片)数据。我们提供了关于使用 Amazon SageMaker 在 AWS 上构建复杂 ML 工作流的可解释性、稳健性和最佳实践的见解。这些多模态管道正在 Genomics England 癌症队列中使用,以增强我们对癌症生物标志物和生物学的理解。
在本文中,我们将向您展示如何通过使用直接偏好优化 (DPO) 对使用 SageMaker Ground Truth 收集的数据进行微调来提高 Meta Llama 3 8B Instruct 的性能。
Fine-tune Llama 3 for text generation on Amazon SageMaker JumpStart
在本文中,我们将演示如何使用 Amazon SageMaker JumpStart 对 Meta 中最近发布的 Llama 3 模型(特别是 llama-3-8b 和 llama-3-70b 变体)进行微调。
Deploy Amazon SageMaker pipelines using AWS Controllers for Kubernetes
在本文中,我们展示了熟悉 Jupyter 笔记本和 SageMaker 环境的 ML 工程师如何与熟悉 Kubernetes 和相关工具的 DevOps 工程师高效合作,设计和维护具有适合其组织的基础架构的 ML 管道。这使 DevOps 工程师能够使用他们习惯的同一套工具和环境来管理 ML 生命周期的所有步骤。
在这篇文章中,我们探讨了 Model Registry 的新功能,这些功能简化了基础模型 (FM) 管理:您现在可以注册解压的模型工件并传递最终用户许可协议 (EULA) 接受标志,而无需用户干预。
How Thomson Reuters Labs achieved AI/ML innovation at pace with AWS MLOps services
在本文中,我们将向您展示汤森路透实验室 (TR Labs) 如何通过采用使用 AWS SageMaker、SageMaker Experiments、SageMaker Model Registry 和 SageMaker Pipelines 的标准化 MLOps 框架来开发高效、灵活且功能强大的 MLOps 流程。目标是加快团队使用 AI 和机器学习 (ML) 进行实验和创新的速度——无论是使用自然语言处理 (NLP)、生成式 AI 还是其他技术。我们讨论了这如何帮助缩短新想法的上市时间并帮助构建具有成本效益的机器学习生命周期。
在本文中,我们将探讨如何使用新的 EMR Serverless 集成、Spark 的分布式处理以及由 LangChain 编排框架提供支持的 Amazon OpenSearch Service 向量数据库构建可扩展且高效的检索增强生成 (RAG) 系统。此解决方案使您能够处理大量文本数据,生成相关嵌入,并将它们存储在强大的向量数据库中,以实现无缝检索和生成。
Best practices for prompt engineering with Meta Llama 3 for Text-to-SQL use cases
在本文中,我们将探索一种解决方案,该解决方案使用向量引擎 ChromaDB 和 Meta Llama 3(托管在 SageMaker JumpStart 上的公开基础模型)来实现文本到 SQL 用例。我们分享了 Meta Llama 3 的简要历史、使用 Meta Llama 3 模型进行快速工程的最佳实践,以及使用少样本提示和 RAG 提取存储在 ChromaDB 中的相关模式的架构模式。
Accelerate Generative AI Inference with NVIDIA NIM Microservices on Amazon SageMaker
在本文中,我们将演示客户如何通过 NVIDIA NIM 与 SageMaker 的集成来使用生成人工智能 (AI) 模型和 LLM。我们演示了这种集成的工作原理,以及如何在 SageMaker 上部署这些最先进的模型,以优化其性能和成本。
AWS AI chips deliver high performance and low cost for Llama 3.1 models on AWS
今天,我们很高兴地宣布 AWS Trainium 和 AWS Inferentia 支持 Llama 3.1 模型的微调和推理。Llama 3.1 系列多语言大型语言模型 (LLM) 是一组预先训练和指令调整的生成模型,大小分别为 8B、70B 和 405B。在上一篇文章中,我们介绍了如何在 Amazon SageMaker JumpStart 中基于 AWS Trainium 和 Inferentia 的实例上部署 Llama 3 模型。在这篇文章中,我们概述了如何开始在 AWS AI 芯片上微调和部署 Llama 3.1 系列模型,以实现其性价比优势。