How Ricoh built a scalable intelligent document processing solution on AWS
本文探讨了理光如何使用 AWS GenAI IDP Accelerator 作为基础构建标准化的多租户解决方案,用于自动文档分类和提取,从而将其文档处理从自定义工程瓶颈转变为可扩展、可重复的服务。
Building a scalable virtual try-on solution using Amazon Nova on AWS: part 1
在这篇文章中,我们将探讨 Amazon Nova Canvas 中现有的虚拟试穿功能,包括快速入门的示例代码以及帮助获得最佳输出的提示。
本文详细介绍了 Lendi Group 如何使用 Amazon Bedrock 构建人工智能驱动的 Home Loan Guardian、他们面临的挑战、他们实施的架构以及他们取得的重大业务成果。他们的旅程为那些希望使用生成式人工智能改变客户体验,同时保持人性化以建立信任和忠诚度的组织提供了宝贵的见解。
How Tines enhances security analysis with Amazon Quick Suite
在这篇文章中,我们向您展示如何将 Quick Suite 与 Tines 连接,以安全地检索、分析和可视化来自任何安全或 IT 系统的企业数据。我们将演练一个示例,该示例使用 Tines 中的 MCP 服务器从各种工具(例如 AWS CloudTrail、Okta 和 VirusTotal)检索数据,以使用 Quick Suite 修复安全事件。
Build safe generative AI applications like a Pro: Best Practices with Amazon Bedrock Guardrails
在这篇文章中,我们将向您展示如何配置 Amazon Bedrock Guardrails 以获得高效性能,实施最佳实践来保护您的应用程序,并有效监控您的部署以在安全性和用户体验之间保持适当的平衡。
Learnings from COBOL modernization in the real world
实现成功的 COBOL 现代化需要一种解决方案,该解决方案可以确定性地进行逆向工程,生成经过验证和可追踪的规范,并帮助这些规范流入任何人工智能驱动的编码助手以进行正向工程。成功的现代化需要逆向工程和正向工程。在这篇文章中了解有关 COBOL 的更多信息。
Large model inference container – latest capabilities and performance enhancements
AWS 最近发布了大型模型推理 (LMI) 容器的重大更新,为在 AWS 上托管 LLM 的客户提供全面的性能改进、扩展的模型支持和简化的部署功能。这些版本的重点是降低操作复杂性,同时在流行的模型架构中提供可衡量的性能提升。
Efficiently serve dozens of fine-tuned models with vLLM on Amazon SageMaker AI and Amazon Bedrock
在这篇文章中,我们将解释如何在 vLLM 中为专家混合 (MoE) 模型实现多 LoRA 推理,描述我们执行的内核级优化,并向您展示如何从这项工作中受益。我们在这篇文章中使用 GPT-OSS 20B 作为我们的主要示例。
Building intelligent event agents using Amazon Bedrock AgentCore and Amazon Bedrock Knowledge Bases
本文演示了如何使用 Amazon Bedrock AgentCore 组件快速部署生产就绪的事件助手。我们将构建一个智能伴侣,它可以记住与会者的偏好并随着时间的推移构建个性化体验,而 Amazon Bedrock AgentCore 则负责处理生产部署的繁重工作:Amazon Bedrock AgentCore Memory 用于维护对话上下文和长期偏好,无需自定义存储解决方案;Amazon Bedrock AgentCore Identity 用于安全的多 IDP 身份验证;Amazon Bedrock AgentCore Runtime 用于无服务器扩展和会话隔离。我们还将使用 Amazo
Train CodeFu-7B with veRL and Ray on Amazon SageMaker Training jobs
在这篇文章中,我们将演示如何在由 SageMaker 训练作业管理的分布式 Ray 集群中使用组相对策略优化 (GRPO) 和 veRL 来训练 CodeFu-7B(一种用于竞争性编程的专用 70 亿参数模型),veRL 是一个灵活高效的大型语言模型 (LLM) 训练库,可直接扩展各种 RL 算法,并与现有 LLM 基础设施无缝集成。我们将介绍完整的实施过程,涵盖数据准备、分布式训练设置和全面的可观察性,展示这种统一的方法如何为复杂的 RL 训练工作负载提供计算规模和开发人员体验。
我们很高兴地宣布,Anthropic 的 Claude Opus 4.6、Claude Sonnet 4.6、Claude Opus 4.5、Claude Sonnet 4.5 和 Claude Haiku 4.5 通过 Amazon Bedrock 全球跨区域推理向中东运营的客户推出。在这篇文章中,我们将引导您了解每个 Anthropic Claude 模型变体的功能、全局跨区域推理的主要优势(包括提高的弹性)、您可以实现的实际用例,以及帮助您立即开始构建生成式 AI 应用程序的代码示例。
Scaling data annotation using vision-language models to power physical AI systems
在这篇文章中,我们研究了 Bedrock Robotics 如何应对这一挑战。通过加入 AWS 物理 AI 奖学金,该初创公司与 AWS 生成 AI 创新中心合作,应用视觉语言模型来分析施工视频片段、提取操作细节并大规模生成标记的训练数据集,以改进自主施工设备的数据准备。
How Sonrai uses Amazon SageMaker AI to accelerate precision medicine trials
在这篇文章中,我们探讨了生命科学 AI 公司 Sonrai 如何与 AWS 合作,使用 Amazon SageMaker AI 构建强大的 MLOps 框架,以应对这些挑战,同时保持受监管环境中所需的可追溯性和可重复性。
Accelerating AI model production at Hexagon with Amazon SageMaker HyperPod
在这篇博文中,我们演示了 Hexagon 如何与 Amazon Web Services 合作,通过使用 Amazon SageMaker HyperPod 的模型训练基础设施预训练最先进的分割模型来扩展其 AI 模型生产。
2025 年,Amazon SageMaker AI 进行了多项改进,旨在帮助您训练、调整和托管生成型 AI 工作负载。在本系列的第 1 部分中,我们讨论了灵活的培训计划和对推理组件的性价比改进。在这篇文章中,我们讨论可观察性、模型定制和模型托管方面的增强功能。这些改进有助于在 SageMaker AI 上托管全新类别的客户用例。
Build AI workflows on Amazon EKS with Union.ai and Flyte
在这篇文章中,我们将解释如何使用 Flyte Python SDK 来编排和扩展 AI/ML 工作流程。我们探索 Union.ai 2.0 系统如何在 Amazon Elastic Kubernetes Service (Amazon EKS) 上部署 Flyte,并与 Amazon Simple Storage Service (Amazon S3)、Amazon Aurora、AWS Identity and Access Management (IAM) 和 Amazon CloudWatch 等 AWS 服务无缝集成。我们使用新的 Amazon S3 Vectors 服务通过 AI 工
Amazon Quick now supports key pair authentication to Snowflake data source
在本博文中,我们将指导您通过安全密钥对身份验证在 Amazon Quick Sight 和 Snowflake 之间建立数据源连接。
Build unified intelligence with Amazon Bedrock AgentCore
在这篇文章中,我们将演示如何通过客户代理和知识引擎 (CAKE) 的实际实施,使用 Amazon Bedrock AgentCore 构建统一智能系统。