Cohere Rerank 3.5 is now available in Amazon Bedrock through Rerank API
我们很高兴地宣布,通过 Amazon Bedrock 中的新 Rerank API,Cohere 的高级重新排名模型 Rerank 3.5 现已推出。这种强大的重新排名模型使 AWS 客户能够显著提高他们的搜索相关性和内容排名能力。在这篇文章中,我们讨论了重新排名的必要性、Cohere 的 Rerank 3.5 的功能以及如何开始在 Amazon Bedrock 上使用它。
AWS DeepRacer: How to master physical racing?
在这篇博文中,我将介绍物理 AWS DeepRacer 赛车(真实赛道上的真实汽车)与虚拟世界中的赛车(模拟 3D 环境中的模型)的不同之处。我将介绍基础知识、虚拟与物理之间的差异,以及我为深入了解挑战所采取的步骤。
Easily deploy and manage hundreds of LoRA adapters with SageMaker efficient multi-adapter inference
Amazon SageMaker 的全新高效多适配器推理功能为使用微调模型的客户带来了激动人心的可能性。此功能与 SageMaker 推理组件集成,可让您通过 SageMaker API 部署和管理数百个经过微调的低秩自适应 (LoRA) 适配器。在本文中,我们将展示如何使用 SageMaker 中的全新高效多适配器推理功能。
Create a generative AI assistant with Slack and Amazon Bedrock
客户体验、协作工具和相关数据的无缝集成是实现基于知识的生产力提升的基础。在这篇文章中,我们将向您展示如何将流行的 Slack 消息服务与 AWS 生成式 AI 服务集成,以构建一个自然语言助手,业务用户可以在其中询问非结构化数据集的问题。
Unleash your Salesforce data using the Amazon Q Salesforce Online connector
在这篇文章中,我们将引导您完成配置和设置 Amazon Q Salesforce Online 连接器的过程。全球数千家公司使用 Salesforce 来管理其销售、营销、客户服务和其他业务运营。Salesforce 基于云的平台将整个组织的客户信息和互动集中起来,为销售代表、营销人员和支持代理提供每个客户的统一 360 度视图。由于 Salesforce 是其业务的核心,公司随着时间的推移在平台内积累了大量的客户数据。这些数据对于深入了解客户、改进运营和指导战略决策非常有价值。但是,访问和分析结构化数据和非结构化数据的混合可能具有挑战性。借助 Amazon Q Salesforce Onli
这篇文章演示了如何使用 Amazon Bedrock Agents、Amazon Knowledge Bases 和 RAGAS 评估指标来构建自定义幻觉检测器并使用人机交互对其进行修复。代理工作流可以通过不同的幻觉补救技术扩展到自定义用例,并提供使用自定义操作检测和缓解幻觉的灵活性。
Deploy Meta Llama 3.1-8B on AWS Inferentia using Amazon EKS and vLLM
在本文中,我们将介绍使用 Amazon EKS 在 Inferentia 2 实例上部署 Meta Llama 3.1-8B 模型的步骤。此解决方案将 Inferentia 2 芯片的卓越性能和成本效益与 Amazon EKS 的强大和灵活的环境相结合。Inferentia 2 芯片提供高吞吐量和低延迟推理,非常适合 LLM。
Serving LLMs using vLLM and Amazon EC2 instances with AWS AI chips
在过去一年中,大型语言模型 (LLM) 和生成式 AI 的使用呈爆炸式增长。随着强大的公开基础模型的发布,用于训练、微调和托管您自己的 LLM 的工具也变得民主化。在 AWS Trainium 和 Inferentia 上使用 vLLM 可以托管 LLM 以实现高性能 [...]
Enhanced observability for AWS Trainium and AWS Inferentia with Datadog
本博文将引导您了解 Datadog 与 AWS Neuron 的新集成,它通过提供对资源利用率、模型执行性能、延迟和实时基础设施运行状况的深度可观察性来帮助您监控 AWS Trainium 和 AWS Inferentia 实例,使您能够优化机器学习 (ML) 工作负载并实现大规模高性能。
Apply Amazon SageMaker Studio lifecycle configurations using AWS CDK
本篇文章是有关如何为您的 Amazon SageMaker Studio 域设置生命周期配置的分步指南。借助生命周期配置,系统管理员可以对其 SageMaker Studio 域及其用户应用自动控制。我们涵盖了 SageMaker Studio 的核心概念,并提供了如何将生命周期配置应用于 […] 的代码示例
Build a read-through semantic cache with Amazon OpenSearch Serverless and Amazon Bedrock
这篇文章介绍了一种优化基于 LLM 的应用程序的策略。鉴于对高效且经济高效的 AI 解决方案的需求日益增加,我们提出了一种使用重复数据模式的无服务器读取缓存蓝图。借助此缓存,开发人员可以有效地保存和访问类似的提示,从而提高系统的效率和响应时间。
Rad AI reduces real-time inference latency by 50% using Amazon SageMaker
本篇文章由 Rad AI 的 Ken Kao 和 Hasan Ali Demirci 共同撰写。Rad AI 重塑了放射学报告,开发了简化最繁琐和重复任务的解决方案,并节省了放射科医生的时间。自 2018 年以来,我们的旗舰产品 Rad AI Impressions 使用最先进的专有和开源大型语言模型 (LLM),大大减少了 […]
我们很高兴地宣布,Meta Llama 3.1 8B 和 70B 推理支持已在 Amazon SageMaker JumpStart 中的 AWS Trainium 和 AWS Inferentia 实例上推出。 Trainium 和 Inferentia 由 AWS Neuron 软件开发工具包 (SDK) 提供支持,可提供高性能并将 Meta Llama 3.1 的部署成本降低高达 50%。在这篇文章中,我们演示了如何在 SageMaker JumpStart 中的 Trainium 和 Inferentia 实例上部署 Meta Llama 3.1。
AWS achieves ISO/IEC 42001:2023 Artificial Intelligence Management System accredited certification
Amazon Web Services (AWS) 很高兴成为第一家宣布以下 AI 服务获得 ISO/IEC 42001 认证的主要云服务提供商:Amazon Bedrock、Amazon Q Business、Amazon Textract 和 Amazon Transcribe。ISO/IEC 42001 是一项国际管理系统标准,概述了组织促进负责任地开发和使用 AI 系统的要求和控制。
How 123RF saved over 90% of their translation costs by switching to Amazon Bedrock
这篇文章探讨了 123RF 如何使用 Amazon Bedrock、Anthropic 的 Claude 3 Haiku 和向量存储来高效翻译内容元数据、显著降低成本并提高其全球内容发现能力。
Connect SharePoint Online to Amazon Q Business using OAuth 2.0 ROPC flow authentication
在本文中,我们探讨了如何使用 OAuth 2.0 ROPC 流身份验证方法将 Amazon Q Business 与 SharePoint Online 集成。我们提供使用 PowerShell 脚本的手动和自动方法来配置所需的 Azure AD 设置。此外,我们还演示了如何将这些详细信息连同您的 SharePoint 身份验证凭据一起输入到 Amazon Q 控制台中以完成安全连接。
John Snow Labs Medical LLMs are now available in Amazon SageMaker JumpStart
今天,我们很高兴地宣布,John Snow Labs 的医学 LLM – 小型和医学 LLM – 中大型语言模型 (LLM) 现已在 Amazon SageMaker Jumpstart 上推出。对于医生来说,此工具可以快速了解患者的医疗历程,帮助他们从大量文档中及时做出明智的决策。这种总结能力不仅可以提高效率,还可以确保不会忽略任何关键细节,从而支持最佳患者护理并改善医疗保健结果。
Amazon SageMaker Inference now supports G6e instances
SageMaker 上的 G6e 实例解锁了以经济高效的方式部署各种开源模型的能力。凭借卓越的内存容量、增强的性能和成本效益,这些实例为希望部署和扩展其 AI 应用程序的组织提供了极具吸引力的解决方案。处理更大模型、支持更长上下文长度和保持高吞吐量的能力使 G6e 实例对于现代 AI 应用程序特别有价值。