AWS DeepRacer: How to master physical racing?
在这篇博文中,我将介绍物理 AWS DeepRacer 赛车(真实赛道上的真实汽车)与虚拟世界中的赛车(模拟 3D 环境中的模型)的不同之处。我将介绍基础知识、虚拟与物理之间的差异,以及我为深入了解挑战所采取的步骤。
AWS Cloud Development Kit Vulnerability Enables Full AWS Account Takeover
安全公司 Aqua 在 AWS 云开发工具包 (CDK) 中发现的一个新漏洞可能导致攻击者由于手动删除工件 S3 存储桶而完全接管目标 AWS 帐户。虽然 AWS 修复了此漏洞,但如果您使用的是 CDK 版本 v2.148.1 或更早版本,您仍需要采取行动。作者:Sergio De Simone
Deploy Meta Llama 3.1-8B on AWS Inferentia using Amazon EKS and vLLM
在本文中,我们将介绍使用 Amazon EKS 在 Inferentia 2 实例上部署 Meta Llama 3.1-8B 模型的步骤。此解决方案将 Inferentia 2 芯片的卓越性能和成本效益与 Amazon EKS 的强大和灵活的环境相结合。Inferentia 2 芯片提供高吞吐量和低延迟推理,非常适合 LLM。
Serving LLMs using vLLM and Amazon EC2 instances with AWS AI chips
在过去一年中,大型语言模型 (LLM) 和生成式 AI 的使用呈爆炸式增长。随着强大的公开基础模型的发布,用于训练、微调和托管您自己的 LLM 的工具也变得民主化。在 AWS Trainium 和 Inferentia 上使用 vLLM 可以托管 LLM 以实现高性能 [...]
Enhanced observability for AWS Trainium and AWS Inferentia with Datadog
本博文将引导您了解 Datadog 与 AWS Neuron 的新集成,它通过提供对资源利用率、模型执行性能、延迟和实时基础设施运行状况的深度可观察性来帮助您监控 AWS Trainium 和 AWS Inferentia 实例,使您能够优化机器学习 (ML) 工作负载并实现大规模高性能。
Apply Amazon SageMaker Studio lifecycle configurations using AWS CDK
本篇文章是有关如何为您的 Amazon SageMaker Studio 域设置生命周期配置的分步指南。借助生命周期配置,系统管理员可以对其 SageMaker Studio 域及其用户应用自动控制。我们涵盖了 SageMaker Studio 的核心概念,并提供了如何将生命周期配置应用于 […] 的代码示例
How Crexi achieved ML models deployment on AWS at scale and boosted efficiency
Commercial Real Estate Exchange, Inc. (Crexi) 是一个数字市场和平台,旨在简化商业房地产交易。在这篇文章中,我们将回顾 Crexi 如何实现其业务需求,并开发一个多功能且强大的框架来创建和部署 AI/ML 管道。这种可定制且可扩展的解决方案允许高效部署和管理其 ML 模型,以满足不同的项目要求。
Overture Maps Foundation 和其他公司利用 Wherobots 更快地将地理空间产品推向市场,同时在云端将其工作负载提高 20 倍
我们很高兴地宣布,Meta Llama 3.1 8B 和 70B 推理支持已在 Amazon SageMaker JumpStart 中的 AWS Trainium 和 AWS Inferentia 实例上推出。 Trainium 和 Inferentia 由 AWS Neuron 软件开发工具包 (SDK) 提供支持,可提供高性能并将 Meta Llama 3.1 的部署成本降低高达 50%。在这篇文章中,我们演示了如何在 SageMaker JumpStart 中的 Trainium 和 Inferentia 实例上部署 Meta Llama 3.1。
AWS achieves ISO/IEC 42001:2023 Artificial Intelligence Management System accredited certification
Amazon Web Services (AWS) 很高兴成为第一家宣布以下 AI 服务获得 ISO/IEC 42001 认证的主要云服务提供商:Amazon Bedrock、Amazon Q Business、Amazon Textract 和 Amazon Transcribe。ISO/IEC 42001 是一项国际管理系统标准,概述了组织促进负责任地开发和使用 AI 系统的要求和控制。
Orchestrate generative AI workflows with Amazon Bedrock and AWS Step Functions
本博文讨论了如何使用 AWS Step Functions 高效协调多步骤生成式 AI 工作流,例如并行化对 Amazon Bedrock 的 API 调用以快速收集已提交问题列表的答案。我们还介绍了使用检索增强生成 (RAG) 来优化输出并提供额外的精度,以及通过 Step Functions 进行的其他可能的集成。
Build generative AI applications on Amazon Bedrock with the AWS SDK for Python (Boto3)
在本博文中,我们将演示如何使用 Amazon Bedrock 和 AWS SDK for Python (Boto3) 以编程方式整合 FM。我们将探讨如何调用特定 FM 并处理生成的文本,展示开发人员在应用程序中使用这些模型用于各种用例的潜力
Revolutionizing knowledge management: VW’s AI prototype journey with AWS
我们很高兴与大家分享大众汽车集团(汽车行业的创新者和欧洲最大的汽车制造商)的历程,他们利用生成式人工智能、Amazon Bedrock 和 Amazon Kendra 设计了基于检索增强生成 (RAG) 的解决方案,让用户更轻松地访问内部信息,从而增强了知识管理。该解决方案可有效处理包含文本和图像的文档,从而显著增强了大众汽车集团在其生产领域的知识管理能力。
Racing into the future: How AWS DeepRacer fueled my AI and ML journey
2018 年,我坐在 AWS re:Invent 的观众席上,听 Andy Jassy 宣布推出 AWS DeepRacer——一款由强化学习驱动的全自动 1/18 比例赛车。当时,我对人工智能或机器学习 (ML) 知之甚少。作为一名从传统网络过渡到云技术的工程师,我从未将自己视为开发人员。[…]
Your guide to generative AI and ML at AWS re:Invent 2024
在此与会者指南中,我们将重点介绍一些我们最喜欢的会议,让您了解即将发生的事情。为了帮助您规划今年 re:Invent 的议程,以下是生成式 AI 和 ML 会议的一些亮点。访问会议目录以了解我们所有的生成式 AI 和 ML 会议。
Customize small language models on AWS with automotive terminology
在本文中,我们将指导您完成在 AWS 上自定义 SLM 的各个阶段,特别关注汽车术语作为问答任务的诊断。我们从数据分析阶段开始,然后逐步完成端到端流程,涵盖微调、部署和评估。我们将定制的 SLM 与通用 LLM 进行比较,使用各种指标来评估词汇丰富度和整体准确性。
AWS 发布的资源控制策略 (RCP) 与现有服务控制策略 (SCP) 结合使用,使云架构师能够创建一个身份边界,大规模控制所有不必要的权限和对资源的访问。使用它们消除了对每个工作负载繁琐的最小特权要求,促进了开发人员的创新。了解 RCP 资源 […]
Generate AWS Resilience Hub findings in natural language using Amazon Bedrock
本博文讨论了一种结合 AWS Resilience Hub 和 Amazon Bedrock 以自然语言生成架构结果的解决方案。通过使用弹性枢纽和亚马逊基岩的功能,您可以与公司内部的C套件高管,工程师,经理和其他角色分享发现,以提供更好的可见性,而不是维护弹性架构