在本文中,我们将演示如何部署上下文 AI 助手。我们构建了一个解决方案,使用 Amazon Bedrock 知识库、Amazon Lex 和 Amazon Connect 为用户提供熟悉且方便的界面,并使用 WhatsApp 作为渠道。
Generative AI foundation model training on Amazon SageMaker
在本文中,我们将探讨组织如何使用 AWS 托管服务(例如 Amazon SageMaker 训练作业和 Amazon SageMaker HyperPod)以经济高效的方式定制和调整 FM。我们将讨论这些强大的工具如何帮助组织优化计算资源并降低模型训练和微调的复杂性。我们将探讨如何做出明智的决定,确定哪种 Amazon SageMaker 服务最适合您的业务需求和要求。
Implement Amazon SageMaker domain cross-Region disaster recovery using custom Amazon EFS instances
在本文中,我们将指导您完成分步过程,以无缝地将您的 SageMaker 域从一个活动区域迁移到另一个被动或活动区域,包括所有相关的用户配置文件和文件。
在本文中,我们将介绍如何使用 Amazon EC2 Inf2 实例在专用 AWS AI 芯片 AWS Inferentia2 上经济高效地部署多个行业领先的 LLM,帮助客户快速测试并开放 API 接口,以同时促进性能基准测试和下游应用程序调用。
Train, optimize, and deploy models on edge devices using Amazon SageMaker and Qualcomm AI Hub
在本文中,我们将介绍一种使用 Amazon SageMaker 和 Qualcomm AI Hub 在边缘进行端到端模型定制和部署的创新解决方案。
Generative AI-powered technology operations
在本文中,我们将介绍 AWS 生成式 AI 解决方案(包括 Amazon Bedrock、Amazon Q Developer 和 Amazon Q Business)如何进一步提高 TechOps 生产力、缩短解决问题的时间、增强客户体验、标准化操作程序并扩充知识库。
Optimizing MLOps for Sustainability
在本文中,我们回顾了在 AWS 上优化 MLOps 以实现可持续性的指南,提供了特定于服务的实践来了解和减少这些工作负载对环境的影响。
在这篇文章中,我们详细介绍了我们在创建两个概念验证 (PoC) 练习方面的合作,这些练习围绕多模态机器学习进行生存分析和癌症亚型分析,使用基因组(基因表达、突变和拷贝数变异数据)和成像(组织病理学幻灯片)数据。我们提供了关于使用 Amazon SageMaker 在 AWS 上构建复杂 ML 工作流的可解释性、稳健性和最佳实践的见解。这些多模态管道正在 Genomics England 癌症队列中使用,以增强我们对癌症生物标志物和生物学的理解。
Amazon EC2 P5e instances are generally available
在本文中,我们将讨论 Amazon Elastic Compute Cloud (Amazon EC2) P5e 实例的核心功能以及它们非常适合的用例。我们将通过一个示例向您介绍如何开始使用这些实例并在其上执行 Meta Llama 3.1 70B 和 405B 模型的推理部署。
Exploring data using AI chat at Domo with Amazon Bedrock
在本文中,我们将分享以云为中心的数据体验创新者 Domo 如何使用 Amazon Bedrock 提供灵活而强大的 AI 解决方案。
How Vidmob is using generative AI to transform its creative data landscape
在本文中,我们将说明创意数据公司 Vidmob 如何与 AWS 生成式 AI 创新中心 (GenAIIC) 团队合作,使用 Amazon Bedrock 在创意数据中大规模发现有意义的见解。
在本文中,我们将讨论使用基础模型评估库 (FMEval) 进行地面实况管理和指标解释的最佳实践,以评估问答应用程序的事实知识和质量。
Build powerful RAG pipelines with LlamaIndex and Amazon Bedrock
在这篇文章中,我们向您展示了如何将 LlamaIndex 与 Amazon Bedrock 结合使用,以构建强大而复杂的 RAG 管道,从而充分发挥 LLM 在知识密集型任务中的潜力。
在这篇文章中,我们探讨了 Model Registry 的新功能,这些功能简化了基础模型 (FM) 管理:您现在可以注册解压的模型工件并传递最终用户许可协议 (EULA) 接受标志,而无需用户干预。
Build an ecommerce product recommendation chatbot with Amazon Bedrock Agents
在本文中,我们将向您展示如何使用 Amazon Bedrock Agents 和 Amazon Bedrock 中的基础模型 (FM) 构建电子商务产品推荐聊天机器人。
How Thomson Reuters Labs achieved AI/ML innovation at pace with AWS MLOps services
在本文中,我们将向您展示汤森路透实验室 (TR Labs) 如何通过采用使用 AWS SageMaker、SageMaker Experiments、SageMaker Model Registry 和 SageMaker Pipelines 的标准化 MLOps 框架来开发高效、灵活且功能强大的 MLOps 流程。目标是加快团队使用 AI 和机器学习 (ML) 进行实验和创新的速度——无论是使用自然语言处理 (NLP)、生成式 AI 还是其他技术。我们讨论了这如何帮助缩短新想法的上市时间并帮助构建具有成本效益的机器学习生命周期。
在本文中,我们将深入研究构建和部署示例应用程序的过程,该应用程序能够使用 Streamlit UI、由 Amazon Bedrock SDK 提供支持的 AWS Lambda 和由开源 Generative AI CDK Constructs 驱动的 AWS AppSync 为多个图像生成多语言描述。
在本文中,我们将探讨如何使用新的 EMR Serverless 集成、Spark 的分布式处理以及由 LangChain 编排框架提供支持的 Amazon OpenSearch Service 向量数据库构建可扩展且高效的检索增强生成 (RAG) 系统。此解决方案使您能够处理大量文本数据,生成相关嵌入,并将它们存储在强大的向量数据库中,以实现无缝检索和生成。