Iterate faster with Amazon Bedrock AgentCore Runtime direct code deployment
Amazon Bedrock AgentCore 是一个代理平台,用于大规模安全地构建、部署和操作有效的代理。 Amazon Bedrock AgentCore Runtime 是 Bedrock AgentCore 的完全托管服务,它提供低延迟无服务器环境来部署代理和工具。它提供会话隔离,支持多种代理框架(包括流行的开源框架),并处理多模式 [...]
在这篇文章中,我们研究了 Switchboard, MD 在临床环境中扩展转录准确性和成本效益方面面临的具体挑战、他们选择正确转录解决方案的评估流程,以及他们使用 Amazon Connect 和 Amazon Kinesis Video Streams 实施的技术架构。这篇文章详细介绍了所取得的令人印象深刻的成果,并展示了他们如何利用这一基础实现 EMR 匹配自动化,并让医护人员有更多时间专注于患者护理。
Build reliable AI systems with Automated Reasoning on Amazon Bedrock – Part 1
受监管行业的企业通常需要数学确定性,确保每个人工智能响应都符合既定政策和领域知识。受监管的行业不能使用传统的质量保证方法,仅测试人工智能输出的统计样本并对合规性做出概率断言。当我们在 Amazon Bedrock Guardrails 中推出自动推理检查时,预览版位于 [...]
Custom Intelligence: Building AI that matches your business DNA
2024年,我们在AWS Generative AI创新中心推出了定制模型计划,为模型定制和优化的每个阶段提供全面支持。在过去的两年里,该计划通过与不同行业的全球企业和初创公司合作,取得了卓越的成果——包括法律、金融服务、医疗保健和生命科学,[...]
Clario streamlines clinical trial software configurations using Amazon Bedrock
这篇文章建立在我们之前讨论 Clario 如何开发由 Amazon Bedrock 提供支持的 AI 解决方案以加速临床试验的文章的基础上。从那时起,Clario 进一步增强了其人工智能能力,专注于创新解决方案,简化临床试验软件配置和工件的生成,同时提供高质量的临床证据。
こんにちは,你好。 Anthropic 最近推出的 Claude Sonnet 4.5 和 Claude Haiku 4.5(现已在 Amazon Bedrock 上提供)标志着生成式 AI 模型的重大飞跃。这些最先进的模型擅长复杂的代理任务、编码和企业工作负载,为开发人员提供增强的功能。除了新型号之外,我们很高兴地宣布 [...]
AI 代理需要代表您浏览网页。当您的代理访问网站以收集信息、填写表格或验证数据时,它会遇到旨在阻止不需要的机器人的相同防御措施:验证码、速率限制和彻底阻止。今天,我们很高兴与大家分享 AWS 拥有一个解决方案。 Amazon Bedrock AgentCore [...]
Hosting NVIDIA speech NIM models on Amazon SageMaker AI: Parakeet ASR
在这篇文章中,我们将探讨如何使用异步推理端点在 Amazon SageMaker AI 上部署 NVIDIA 的 Parakeet ASR 模型,以创建可扩展、经济高效的管道来处理大量音频数据。该解决方案将最先进的语音识别功能与 Lambda、S3 和 Bedrock 等 AWS 托管服务相结合,自动转录音频文件并生成智能摘要,使组织能够从客户通话、会议录音和其他大规模音频内容中获取有价值的见解。
Responsible AI design in healthcare and life sciences
在这篇文章中,我们探讨了在医疗保健和生命科学领域构建负责任的人工智能系统的关键设计考虑因素,重点是建立治理机制、透明度工件和安全措施,以确保安全有效的生成式人工智能应用。讨论涵盖了减轻虚构和偏见等风险的基本政策,同时在整个人工智能开发生命周期中促进信任、问责制和患者安全。
Beyond pilots: A proven framework for scaling AI to production
在这篇文章中,我们探讨了 5V 框架,这是一种经过现场测试的方法,已帮助 65% 的 AWS Generative AI Innovation Center 客户项目成功从概念过渡到生产,其中一些项目在短短 45 天内就启动了。该框架通过价值、可视化、验证、验证和风险阶段提供了一种结构化方法,将焦点从“人工智能能做什么?”转移。到“我们需要人工智能做什么?”同时确保解决方案提供可衡量的业务成果和可持续的卓越运营。
Generate Gremlin queries using Amazon Bedrock models
在这篇文章中,我们探索了一种创新方法,该方法使用 Amazon Bedrock 模型(例如 Amazon Nova Pro)将自然语言转换为 Gremlin 查询,从而帮助业务分析师和数据科学家访问图形数据库,而无需深厚的技术专业知识。该方法涉及三个关键步骤:提取图形知识、构建类似于文本到 SQL 处理的图形,以及通过迭代细化过程生成可执行的 Gremlin 查询,该过程在测试中实现了 74.17% 的总体准确率。
Incorporating responsible AI into generative AI project prioritization
在这篇文章中,我们探讨了公司如何系统地将负责任的人工智能实践纳入其生成式人工智能项目优先级排序方法中,以更好地根据成本评估业务价值,同时解决幻觉和监管合规等新风险。这篇文章通过一个实际的例子展示了如何进行预先负责任的人工智能风险评估,通过揭示影响整体项目复杂性和时间表的大量缓解工作来显着改变项目排名。
Build scalable creative solutions for product teams with Amazon Bedrock
在这篇文章中,我们探讨产品团队如何利用 Amazon Bedrock 和 AWS 服务通过生成式 AI 转变其创意工作流程,实现跨多种格式的快速内容迭代,同时保持品牌一致性和合规性。该解决方案展示了团队如何部署可扩展的生成式人工智能应用程序,以加速从产品描述和营销文案到视觉概念和视频内容的一切,显着缩短上市时间,同时提高创意质量。
Build a proactive AI cost management system for Amazon Bedrock – Part 2
在这篇文章中,我们探讨了 Amazon Bedrock 部署的高级成本监控策略,引入了精细的自定义标记方法,以实现精确的成本分配和全面的报告机制,这些机制建立在第 1 部分中建立的主动成本管理基础之上。该解决方案演示了如何实现调用级标记、应用程序推理配置文件以及与 AWS Cost Explorer 的集成,以创建生成式 AI 使用和生成的完整 360 度视图。 费用。
Build a proactive AI cost management system for Amazon Bedrock – Part 1
In this post, we introduce a comprehensive solution for proactively managing Amazon Bedrock inference costs through a cost sentry mechanism designed to establish and enforce token usage limits, providing organizations with a robust framework for controlling generative AI expenses. The solution uses
Streamline code migration using Amazon Nova Premier with an agentic workflow
在这篇文章中,我们演示了 Amazon Nova Premier 与 Amazon Bedrock 如何使用智能代理工作流程将复杂的转换分解为专门的代理角色,系统地将旧版 C 代码迁移到现代 Java/Spring 应用程序。该解决方案减少了迁移时间和成本,同时通过自动验证、安全评估和迭代细化流程来提高代码质量,这些流程甚至可以处理超出令牌限制的大型代码库。
Metagenomi generates millions of novel enzymes cost-effectively using AWS Inferentia
In this post, we detail how Metagenomi partnered with AWS to implement the Progen2 protein language model on AWS Inferentia, achieving up to 56% cost reduction for high-throughput enzyme generation workflows. The implementation enabled cost-effective generation of millions of novel enzyme variants u
Serverless deployment for your Amazon SageMaker Canvas models
在这篇文章中,我们将介绍如何采用 SageMaker Canvas 中构建的 ML 模型并使用 SageMaker Serverless Inference 进行部署,帮助您快速高效地从模型创建到生产就绪的预测,而无需管理任何基础设施。该解决方案演示了一个完整的工作流程,从将经过训练的模型添加到 SageMaker 模型注册表,到创建无服务器端点配置,再到部署根据需求自动扩展的端点。