Fine-tune and host SDXL models cost-effectively with AWS Inferentia2
随着技术的不断发展,新的模型不断涌现,提供更高的质量、更大的灵活性和更快的图像生成功能。StabilityAI 发布的 Stable Diffusion XL (SDXL) 就是这样一种突破性的模型,它将文本到图像的生成 AI 技术推向了前所未有的高度。在这篇文章中,我们演示了如何使用 SageMaker Studio 有效地微调 SDXL 模型。我们展示了如何准备经过微调的模型以在由 AWS Inferentia2 提供支持的 Amazon EC2 Inf2 实例上运行,从而为您的推理工作负载带来卓越的性价比。
How Aetion is using generative AI and Amazon Bedrock to translate scientific intent to results
Aetion 是生物制药、付款人和监管机构的决策级真实世界证据软件的领先提供商。在这篇文章中,我们回顾了 Aetion 如何使用 Amazon Bedrock 帮助简化分析过程以生成决策级真实世界证据,并使没有数据科学专业知识的用户能够与复杂的真实世界数据集进行交互。
这篇文章讨论了 Trellix 对 Amazon Nova 基础模型的采用和评估,Trellix 是一家领先的公司,为全球 53,000 多家客户提供网络安全领域最广泛的 AI 驱动平台。
在本文中,我们展示了 OfferUp 如何使用 Amazon Titan Multimodal Embeddings 和 OpenSearch Service 转变其基础搜索架构,从而显著提高用户参与度、提高搜索质量并为用户提供使用文本和图像进行搜索的能力。OfferUp 选择 Amazon Titan Multimodal Embeddings 和 Amazon OpenSearch Service 是因为它们具有完全托管的功能,能够开发出具有高准确度的强大多模态搜索解决方案,并加快搜索和推荐用例的上市时间。
有一致的客户反馈,当用户可以在他们日常使用的生产力工具中与 AI 助手交互时,AI 助手是最有用的,以避免切换应用程序和上下文。 Amazon Q Business 和 Slack 等 Web 应用程序已成为现代 AI 助手部署的必备环境。本文探讨了多样化的界面如何增强用户交互、提高可访问性并满足不同的偏好。
本文介绍的解决方案展示了一种强大的模式,可在保持人工监督的同时加速视频和音频审核工作流程。通过将 Amazon Bedrock 中的 AI 模型的强大功能与人类专业知识相结合,您可以创建不仅能提高生产力,还能在重要决策过程中保持人类判断这一关键要素的工具。
Boost team innovation, productivity, and knowledge sharing with Amazon Q Apps
在本文中,我们展示了 Amazon Q Apps 如何帮助最大限度地发挥现有知识资源的价值,并提高从财务到 DevOps 再到支持工程师等各个团队的生产力。我们分享了生成式 AI 助手如何实现相关信息的展示、复杂主题的提炼、自定义内容的生成和工作流的具体示例,同时保持强大的安全性和数据治理控制。
How Travelers Insurance classified emails with Amazon Bedrock and prompt engineering
在本文中,我们讨论了 FM 如何通过快速工程可靠地自动对保险服务电子邮件进行分类。当将问题表述为分类任务时,FM 可以在生产环境中表现良好,同时保持可扩展性以扩展到其他任务并快速启动和运行。所有实验均使用 Amazon Bedrock 上的 Anthropic 的 Claude 模型进行。
Accelerate digital pathology slide annotation workflows on AWS using H-optimus-0
在本文中,我们展示了如何使用 H-optimus-0 执行两个常见的数字病理学任务:用于详细组织检查的补丁级分析和用于更广泛诊断评估的幻灯片级分析。通过实际示例,我们向您展示了如何在优化计算资源的同时将此 FM 适应这些特定用例。
DeepSeek-R1 model now available in Amazon Bedrock Marketplace and Amazon SageMaker JumpStart
DeepSeek-R1 是一种先进的大型语言模型,它结合了强化学习、思维链推理和混合专家架构,通过 Amazon Bedrock Guardrails 集成提供高效、可解释的响应,同时保持安全性。
在本文中,我们将回顾 Aetion 的智能子组解释器如何让用户使用自然语言查询与智能子组进行交互。在 Amazon Bedrock 和 Anthropic 的 Claude 3 大型语言模型 (LLM) 的支持下,解释器可以回答用户以对话语言表达的有关患者子组的问题,并提供见解以生成进一步的假设和证据。
Deploy DeepSeek-R1 distilled Llama models with Amazon Bedrock Custom Model Import
在本文中,我们将演示如何使用 Amazon Bedrock 自定义模型导入来部署精简版的 DeepSeek-R1 模型。我们专注于导入当前支持的变体 DeepSeek-R1-Distill-Llama-8B 和 DeepSeek-R1-Distill-Llama-70B,它们在性能和资源效率之间实现了最佳平衡。
Generative AI operating models in enterprise organizations with Amazon Bedrock
随着生成式 AI 的采用率不断增长,组织应该建立生成式 AI 运营模型。运营模式定义了推动企业运营的组织设计、核心流程、技术、角色和职责、治理结构和财务模型。在本文中,我们评估了可以采用的不同生成式 AI 运营模式架构。
Develop a RAG-based application using Amazon Aurora with Amazon Kendra
RAG 从预先存在的知识库(您的数据)中检索数据,将其与 LLM 的知识相结合,并生成更像人类语言的响应。但是,为了让生成式 AI 理解您的数据,需要进行一定程度的数据准备,这涉及很大的学习曲线。在这篇文章中,我们将引导您了解如何将现有的 Aurora 数据转换为索引,而无需为 Amazon Kendra 进行数据准备以执行数据搜索并实施 RAG,将您的数据与 LLM 知识相结合以产生准确的响应。
Optimizing AI responsiveness: A practical guide to Amazon Bedrock latency-optimized inference
在本文中,我们将探讨 Amazon Bedrock 延迟优化推理如何帮助解决在 LLM 应用程序中保持响应能力的挑战。我们将深入探讨优化应用程序性能和改善用户体验的策略。无论您是构建新的 AI 应用程序还是优化现有的应用程序,您都会找到有关延迟优化技术方面和实际实施方法的实用指导。我们首先解释 LLM 应用程序中的延迟。
Track LLM model evaluation using Amazon SageMaker managed MLflow and FMEval
在本文中,我们将展示如何使用 FMEval 和 Amazon SageMaker 以编程方式评估 LLM。FMEval 是一个开源 LLM 评估库,旨在为数据科学家和机器学习 (ML) 工程师提供代码优先体验,以评估 LLM 的各个方面,包括准确性、毒性、公平性、稳健性和效率。
Image and video prompt engineering for Amazon Nova Canvas and Amazon Nova Reel
亚马逊在 Amazon Bedrock 上推出了两种新的创意内容生成模型:用于图像生成的 Amazon Nova Canvas 和用于视频创作的 Amazon Nova Reel。这些模型将文本和图像输入转换为自定义视觉效果,为专业和个人项目开辟了创意机会。Nova Canvas 是一种最先进的图像生成模型,可创建专业级图像 [...]
How Kyndryl integrated ServiceNow and Amazon Q Business
在这篇文章中,我们将向您展示 Kyndryl 如何通过几个简单的步骤将 Amazon Q Business 与 ServiceNow 集成。您将了解如何配置 Amazon Q Business 和 ServiceNow、如何为您的 ServiceNow 事件创建生成式 AI 插件以及如何使用 Amazon Q Business Web 体验测试和与 ServiceNow 交互。这篇文章将帮助您通过 Amazon Q Business 增强您的 ServiceNow 体验,并享受生成式 AI 驱动界面带来的好处。