Hosting NVIDIA speech NIM models on Amazon SageMaker AI: Parakeet ASR
在这篇文章中,我们将探讨如何使用异步推理端点在 Amazon SageMaker AI 上部署 NVIDIA 的 Parakeet ASR 模型,以创建可扩展、经济高效的管道来处理大量音频数据。该解决方案将最先进的语音识别功能与 Lambda、S3 和 Bedrock 等 AWS 托管服务相结合,自动转录音频文件并生成智能摘要,使组织能够从客户通话、会议录音和其他大规模音频内容中获取有价值的见解。
Responsible AI design in healthcare and life sciences
在这篇文章中,我们探讨了在医疗保健和生命科学领域构建负责任的人工智能系统的关键设计考虑因素,重点是建立治理机制、透明度工件和安全措施,以确保安全有效的生成式人工智能应用。讨论涵盖了减轻虚构和偏见等风险的基本政策,同时在整个人工智能开发生命周期中促进信任、问责制和患者安全。
Beyond pilots: A proven framework for scaling AI to production
在这篇文章中,我们探讨了 5V 框架,这是一种经过现场测试的方法,已帮助 65% 的 AWS Generative AI Innovation Center 客户项目成功从概念过渡到生产,其中一些项目在短短 45 天内就启动了。该框架通过价值、可视化、验证、验证和风险阶段提供了一种结构化方法,将焦点从“人工智能能做什么?”转移。到“我们需要人工智能做什么?”同时确保解决方案提供可衡量的业务成果和可持续的卓越运营。
Generate Gremlin queries using Amazon Bedrock models
在这篇文章中,我们探索了一种创新方法,该方法使用 Amazon Bedrock 模型(例如 Amazon Nova Pro)将自然语言转换为 Gremlin 查询,从而帮助业务分析师和数据科学家访问图形数据库,而无需深厚的技术专业知识。该方法涉及三个关键步骤:提取图形知识、构建类似于文本到 SQL 处理的图形,以及通过迭代细化过程生成可执行的 Gremlin 查询,该过程在测试中实现了 74.17% 的总体准确率。
Incorporating responsible AI into generative AI project prioritization
在这篇文章中,我们探讨了公司如何系统地将负责任的人工智能实践纳入其生成式人工智能项目优先级排序方法中,以更好地根据成本评估业务价值,同时解决幻觉和监管合规等新风险。这篇文章通过一个实际的例子展示了如何进行预先负责任的人工智能风险评估,通过揭示影响整体项目复杂性和时间表的大量缓解工作来显着改变项目排名。
Build scalable creative solutions for product teams with Amazon Bedrock
在这篇文章中,我们探讨产品团队如何利用 Amazon Bedrock 和 AWS 服务通过生成式 AI 转变其创意工作流程,实现跨多种格式的快速内容迭代,同时保持品牌一致性和合规性。该解决方案展示了团队如何部署可扩展的生成式人工智能应用程序,以加速从产品描述和营销文案到视觉概念和视频内容的一切,显着缩短上市时间,同时提高创意质量。
Build a proactive AI cost management system for Amazon Bedrock – Part 2
在这篇文章中,我们探讨了 Amazon Bedrock 部署的高级成本监控策略,引入了精细的自定义标记方法,以实现精确的成本分配和全面的报告机制,这些机制建立在第 1 部分中建立的主动成本管理基础之上。该解决方案演示了如何实现调用级标记、应用程序推理配置文件以及与 AWS Cost Explorer 的集成,以创建生成式 AI 使用和生成的完整 360 度视图。 费用。
Build a proactive AI cost management system for Amazon Bedrock – Part 1
In this post, we introduce a comprehensive solution for proactively managing Amazon Bedrock inference costs through a cost sentry mechanism designed to establish and enforce token usage limits, providing organizations with a robust framework for controlling generative AI expenses. The solution uses
Streamline code migration using Amazon Nova Premier with an agentic workflow
在这篇文章中,我们演示了 Amazon Nova Premier 与 Amazon Bedrock 如何使用智能代理工作流程将复杂的转换分解为专门的代理角色,系统地将旧版 C 代码迁移到现代 Java/Spring 应用程序。该解决方案减少了迁移时间和成本,同时通过自动验证、安全评估和迭代细化流程来提高代码质量,这些流程甚至可以处理超出令牌限制的大型代码库。
Metagenomi generates millions of novel enzymes cost-effectively using AWS Inferentia
In this post, we detail how Metagenomi partnered with AWS to implement the Progen2 protein language model on AWS Inferentia, achieving up to 56% cost reduction for high-throughput enzyme generation workflows. The implementation enabled cost-effective generation of millions of novel enzyme variants u
Serverless deployment for your Amazon SageMaker Canvas models
在这篇文章中,我们将介绍如何采用 SageMaker Canvas 中构建的 ML 模型并使用 SageMaker Serverless Inference 进行部署,帮助您快速高效地从模型创建到生产就绪的预测,而无需管理任何基础设施。该解决方案演示了一个完整的工作流程,从将经过训练的模型添加到 SageMaker 模型注册表,到创建无服务器端点配置,再到部署根据需求自动扩展的端点。
Building a multi-agent voice assistant with Amazon Nova Sonic and Amazon Bedrock AgentCore
在这篇文章中,我们将探讨如何将 Amazon Nova Sonic 的语音转语音功能与 Amazon Bedrock AgentCore 相结合,以创建复杂的多代理语音助手,将复杂的任务分解为专门的、可管理的组件。该方法演示了如何使用银行助理示例以及用于身份验证、银行查询和抵押服务的专用子代理来构建模块化、可扩展的语音应用程序,从而为整体语音助理设计提供更易于维护的替代方案。
Accelerate large-scale AI training with Amazon SageMaker HyperPod training operator
在这篇文章中,我们演示了如何使用 Amazon SageMaker HyperPod 训练操作器部署和管理机器学习训练工作负载,该操作器通过精确恢复和可定制的监控功能增强 Kubernetes 工作负载的训练弹性。 Amazon SageMaker HyperPod 训练运算符通过有效管理跨大型 GPU 集群的分布式训练来帮助加速生成式 AI 模型开发,提供集中训练过程监控、精细过程恢复和挂起作业检测等优势,可将恢复时间从数十分钟缩短到几秒钟。
How TP ICAP transformed CRM data into real-time insights with Amazon Bedrock
本文展示了 TP ICAP 如何使用 Amazon Bedrock 知识库和 Amazon Bedrock 评估来构建 ClientIQ,这是一个具有增强安全功能的企业级解决方案,可使用 AI 提取 CRM 见解,从而提供即时业务价值。
在Principal Financial Group 使用 Genesys、Amazon Lex 和 Amazon QuickSight 提高语音虚拟助理性能一文中,我们讨论了使用 Genesys Cloud、Amazon Lex V2、多个 AWS 服务的整体 Primary Virtual Assistant 解决方案,以及使用 Amazon QuickSight 的自定义报告和分析解决方案。
Beyond vibes: How to properly select the right LLM for the right task
在这篇文章中,我们讨论了一种方法,可以指导您建立全面的、以经验为驱动的评估,帮助您在为您的任务选择正确的模型时做出更好的决策。
Splash Music transforms music generation using AWS Trainium and Amazon SageMaker HyperPod
在这篇文章中,我们展示了 Splash Music 如何通过在 Amazon SageMaker HyperPod 上结合使用其先进的 HummingLM 模型和 AWS Trainium,为 AI 驱动的音乐创作设定新标准。作为 2024 年 AWS Generative AI Accelerator 中入选的初创公司,Splash Music 与 AWS Startups 和 AWS GenAIIC 密切合作,以快速跟踪创新并加速其音乐生成 FM 开发生命周期。
Iterative fine-tuning on Amazon Bedrock for strategic model improvement
组织在为其生成式 AI 模型实施单次微调方法时经常面临挑战。单次微调方法涉及选择训练数据、配置超参数并希望结果满足预期,但无法进行增量调整。单次微调经常会导致结果不理想,并且需要在改进 [...] 时从头开始整个过程